Meta เปิดตัว Llama 4: โมเดล AI ยุคใหม่

Meta Platforms ยักษ์ใหญ่ด้านเทคโนโลยีผู้อยู่เบื้องหลัง Facebook, Instagram และ WhatsApp ได้ก้าวหน้าอย่างมีนัยสำคัญในวงการปัญญาประดิษฐ์ด้วยการเปิดตัว Llama 4 ซีรีส์ นี่เป็นการเปิดตัวรุ่นต่อไปของตระกูลโมเดลแบบเปิด Llama ที่ทรงอิทธิพลของบริษัท ส่งสัญญาณถึงความมุ่งมั่นอย่างต่อเนื่องในการแข่งขันในระดับแนวหน้าของการพัฒนา AI และอาจปรับเปลี่ยนพลวัตการแข่งขันภายในอุตสาหกรรม การเปิดตัวครั้งนี้นำเสนอโมเดลที่แตกต่างกันสามแบบ ซึ่งแต่ละแบบได้รับการออกแบบให้มีความสามารถและสถาปัตยกรรมคอมพิวเตอร์เฉพาะตัว โดยมีเป้าหมายเพื่อรองรับการใช้งานที่หลากหลายตั้งแต่ฟังก์ชันแชททั่วไปไปจนถึงงานประมวลผลข้อมูลที่ซับซ้อน

ขอแนะนำตระกูล Llama 4: Scout, Maverick และ Behemoth

การเปิดตัว Llama 4 รุ่นแรกประกอบด้วยโมเดลสามรุ่นที่มีชื่อเฉพาะ ได้แก่ Llama 4 Scout, Llama 4 Maverick และ Llama 4 Behemoth ที่ยังอยู่ระหว่างการพัฒนา Meta ระบุว่าพื้นฐานสำหรับโมเดลเหล่านี้มาจากการฝึกฝนด้วยชุดข้อมูลขนาดใหญ่ที่ประกอบด้วยข้อความ รูปภาพ และเนื้อหาวิดีโอที่ไม่มีป้ายกำกับจำนวนมหาศาล แนวทางการฝึกอบรมแบบหลายรูปแบบ (multi-modal) นี้มีจุดมุ่งหมายเพื่อให้โมเดลมีความเข้าใจทางภาพที่ซับซ้อนและ ‘กว้างขวาง’ ขยายขีดความสามารถของโมเดลให้เหนือกว่าการโต้ตอบด้วยข้อความเพียงอย่างเดียว

เส้นทางการพัฒนาของ Llama 4 ดูเหมือนจะได้รับอิทธิพลจากแรงกดดันทางการแข่งขันภายในภาคส่วน AI ที่พัฒนาอย่างรวดเร็ว รายงานระบุว่าการเกิดขึ้นและประสิทธิภาพที่โดดเด่นของโมเดลแบบเปิดจากห้องปฏิบัติการ AI นานาชาติ โดยเฉพาะอย่างยิ่งการอ้างถึงห้องปฏิบัติการ DeepSeek ของจีน กระตุ้นให้ Meta เร่งความพยายามในการพัฒนาของตนเอง เป็นที่เข้าใจกันว่า Meta ทุ่มเททรัพยากรจำนวนมาก อาจถึงขั้นจัดตั้งทีมพิเศษหรือ ‘war rooms’ เพื่อวิเคราะห์และทำความเข้าใจวิธีการที่คู่แข่งอย่าง DeepSeek ใช้ โดยมุ่งเน้นไปที่เทคนิคที่ประสบความสำเร็จในการลดต้นทุนการคำนวณที่เกี่ยวข้องกับการรันและการปรับใช้โมเดล AI ขั้นสูง กระแสการแข่งขันที่ซ่อนอยู่นี้เน้นย้ำถึงการแข่งขันที่เข้มข้นระหว่างผู้เล่นเทคโนโลยีรายใหญ่และสถาบันวิจัยเพื่อบรรลุความก้าวหน้าทั้งในด้านประสิทธิภาพ AI และประสิทธิภาพการดำเนินงาน

การเข้าถึงแตกต่างกันไปในกลุ่มผลิตภัณฑ์ Llama 4 ใหม่ Scout และ Maverick เปิดให้ชุมชนนักพัฒนาและสาธารณชนเข้าถึงได้อย่างเปิดเผยผ่านช่องทางที่เป็นที่ยอมรับ รวมถึงพอร์ทัล Llama.com ของ Meta เอง และแพลตฟอร์มพันธมิตร เช่น Hugging Face ซึ่งเป็นศูนย์กลางการพัฒนา AI ที่ใช้กันอย่างแพร่หลาย การเปิดให้ใช้งานแบบเปิดนี้ตอกย้ำกลยุทธ์ของ Meta ในการส่งเสริมระบบนิเวศที่กว้างขึ้นรอบๆ โมเดล Llama ของตน อย่างไรก็ตาม Behemoth ซึ่งวางตำแหน่งเป็นโมเดลที่ทรงพลังที่สุดในซีรีส์ปัจจุบัน ยังคงอยู่ระหว่างการพัฒนาและยังไม่ได้เปิดให้ใช้งานทั่วไป ในขณะเดียวกัน Meta กำลังผสานรวมความสามารถใหม่เหล่านี้เข้ากับผลิตภัณฑ์ที่ผู้ใช้ต้องเผชิญ บริษัทประกาศว่าผู้ช่วย AI ที่เป็นกรรมสิทธิ์ของตน Meta AI ซึ่งทำงานบนชุดแอปพลิเคชันต่างๆ เช่น WhatsApp, Messenger และ Instagram ได้รับการอัปเกรดเพื่อใช้ประโยชน์จากพลังของ Llama 4 การผสานรวมนี้กำลังเปิดตัวในสี่สิบประเทศ แม้ว่าคุณสมบัติหลายรูปแบบขั้นสูง (การรวมข้อความ รูปภาพ และอาจรวมถึงข้อมูลประเภทอื่นๆ) จะจำกัดเฉพาะผู้ใช้ภาษาอังกฤษในสหรัฐอเมริกาในเบื้องต้น

การนำทางในภูมิทัศน์ของใบอนุญาต

แม้จะเน้นการเปิดกว้างสำหรับบางโมเดล แต่การปรับใช้และการใช้งาน Llama 4 อยู่ภายใต้เงื่อนไขใบอนุญาตเฉพาะที่อาจเป็นอุปสรรคสำหรับนักพัฒนาและองค์กรบางแห่ง ข้อจำกัดที่น่าสังเกตประการหนึ่งคือการห้ามผู้ใช้และบริษัทที่ตั้งอยู่ในหรือมีสถานประกอบการหลักในสหภาพยุโรป (EU) ไม่ให้ใช้หรือเผยแพร่โมเดล Llama 4 อย่างชัดเจน ข้อจำกัดทางภูมิศาสตร์นี้น่าจะเป็นผลโดยตรงจากข้อกำหนดการกำกับดูแลที่เข้มงวดซึ่งกำหนดโดย AI Act ที่ครอบคลุมของ EU และกฎระเบียบด้านความเป็นส่วนตัวของข้อมูลที่มีอยู่ เช่น GDPR การนำทางกรอบการกำกับดูแลที่ซับซ้อนเหล่านี้ดูเหมือนจะเป็นข้อพิจารณาที่สำคัญในการกำหนดกลยุทธ์การปรับใช้ของ Meta ในภูมิภาค

นอกจากนี้ เพื่อสะท้อนโครงสร้างใบอนุญาตของ Llama รุ่นก่อนๆ Meta ได้กำหนดเงื่อนไขสำหรับองค์กรขนาดใหญ่ บริษัทที่มีฐานผู้ใช้เกิน 700 ล้านคนต่อเดือนจะต้องยื่นขอใบอนุญาตพิเศษโดยตรงจาก Meta อย่างเป็นทางการ สิ่งสำคัญคือ การตัดสินใจให้หรือปฏิเสธใบอนุญาตนี้ขึ้นอยู่กับ ‘ดุลยพินิจแต่เพียงผู้เดียว’ ของ Meta ข้อกำหนดนี้ทำให้ Meta สามารถควบคุมวิธีการที่โมเดลที่ทันสมัยที่สุดของตนถูกนำไปใช้โดยบริษัทเทคโนโลยีขนาดใหญ่ที่อาจเป็นคู่แข่งได้อย่างมีประสิทธิภาพ โดยยังคงรักษาระดับการกำกับดูแลเชิงกลยุทธ์ไว้ได้แม้จะมีลักษณะ ‘เปิด’ ของส่วนต่างๆ ของระบบนิเวศ Llama ความแตกต่างเล็กน้อยของใบอนุญาตเหล่านี้เน้นย้ำถึงปฏิสัมพันธ์ที่ซับซ้อนระหว่างการส่งเสริมนวัตกรรมแบบเปิดและการรักษาการควบคุมเชิงกลยุทธ์ในขอบเขต AI ที่มีการแข่งขันสูง

ในการสื่อสารอย่างเป็นทางการพร้อมกับการเปิดตัว Meta ได้วางกรอบการเปิดตัว Llama 4 ว่าเป็นช่วงเวลาสำคัญ ‘โมเดล Llama 4 เหล่านี้เป็นจุดเริ่มต้นของยุคใหม่สำหรับระบบนิเวศ Llama’ บริษัทระบุในบล็อกโพสต์ และเสริมว่า ‘นี่เป็นเพียงจุดเริ่มต้นสำหรับคอลเลกชัน Llama 4’ คำแถลงที่มองไปข้างหน้านี้ชี้ให้เห็นถึงแผนงานสำหรับการพัฒนาและการขยายตัวอย่างต่อเนื่องภายในรุ่น Llama 4 โดยวางตำแหน่งการเปิดตัวนี้ไม่ใช่จุดหมายปลายทางสุดท้าย แต่เป็นก้าวสำคัญในการเดินทางอย่างต่อเนื่องของความก้าวหน้าทาง AI

นวัตกรรมทางสถาปัตยกรรม: แนวทาง Mixture of Experts (MoE)

ลักษณะทางเทคนิคที่สำคัญที่ทำให้ Llama 4 ซีรีส์แตกต่างคือการนำสถาปัตยกรรม Mixture of Experts (MoE) มาใช้ Meta เน้นย้ำว่านี่เป็นกลุ่มแรกในตระกูล Llama ที่ใช้กระบวนทัศน์การออกแบบเฉพาะนี้ แนวทาง MoE แสดงถึงการเปลี่ยนแปลงที่สำคัญในวิธีการสร้างและฝึกฝนโมเดลภาษาขนาดใหญ่ โดยให้ข้อได้เปรียบที่น่าสังเกตในแง่ของประสิทธิภาพการคำนวณ ทั้งในระหว่างขั้นตอนการฝึกอบรมที่ใช้ทรัพยากรมาก และในระหว่างขั้นตอนการปฏิบัติงานเมื่อตอบสนองต่อคำค้นหาของผู้ใช้

โดยแก่นแท้แล้ว สถาปัตยกรรม MoE ทำงานโดยการแยกย่อยงานประมวลผลข้อมูลที่ซับซ้อนออกเป็นงานย่อยที่เล็กลงและจัดการได้ง่ายขึ้น จากนั้นงานย่อยเหล่านี้จะถูกส่งหรือมอบหมายอย่างชาญฉลาดไปยังกลุ่มของส่วนประกอบโครงข่ายประสาทเทียมขนาดเล็กที่เชี่ยวชาญเฉพาะทาง ซึ่งเรียกว่า ‘experts’ โดยทั่วไปแล้ว expert แต่ละตัวจะได้รับการฝึกฝนให้เก่งในข้อมูลหรือประเภทงานเฉพาะ กลไกการควบคุม (gating mechanism) ภายในสถาปัตยกรรมจะกำหนดว่า expert ใดหรือการรวมกันของ expert ใดที่เหมาะสมที่สุดในการจัดการส่วนใดส่วนหนึ่งของข้อมูลอินพุตหรือคำค้นหา ซึ่งแตกต่างจากสถาปัตยกรรมโมเดลแบบหนาแน่น (dense model) แบบดั้งเดิมที่ทั้งโมเดลประมวลผลทุกส่วนของอินพุต

ประสิทธิภาพที่เพิ่มขึ้นเกิดจากข้อเท็จจริงที่ว่ามีเพียงส่วนย่อยของพารามิเตอร์ทั้งหมดของโมเดล (พารามิเตอร์ที่ ‘ใช้งาน’ ซึ่งเป็นของ expert ที่เลือก) เท่านั้นที่ถูกใช้งานสำหรับงานใดงานหนึ่ง การเปิดใช้งานแบบเลือกนี้ช่วยลดภาระการคำนวณลงอย่างมากเมื่อเทียบกับการเปิดใช้งานโมเดลขนาดใหญ่และหนาแน่นทั้งหมด

Meta ได้ให้รายละเอียดเฉพาะที่แสดงให้เห็นถึงสถาปัตยกรรมนี้ในการทำงาน:

  • Maverick: โมเดลนี้มีจำนวนพารามิเตอร์รวมที่มากถึง 400 พันล้าน อย่างไรก็ตาม ด้วยการออกแบบ MoE ที่รวม ‘experts’ ที่แตกต่างกัน 128 ตัว ทำให้มีพารามิเตอร์เพียง 17 พันล้านตัวเท่านั้นที่ทำงานอย่างแข็งขัน ณ เวลาใดเวลาหนึ่งในระหว่างการประมวลผล พารามิเตอร์มักถูกพิจารณาว่าเป็นตัวแทนคร่าวๆ ของความสามารถของโมเดลในการเรียนรู้และความซับซ้อนในการแก้ปัญหา
  • Scout: มีโครงสร้างคล้ายกัน Scout มีพารามิเตอร์รวม 109 พันล้านตัว กระจายอยู่ใน ‘experts’ 16 ตัว ส่งผลให้มีพารามิเตอร์ที่ใช้งาน 17 พันล้านตัวเท่ากับ Maverick

ทางเลือกทางสถาปัตยกรรมนี้ช่วยให้ Meta สามารถสร้างโมเดลที่มีความจุโดยรวมมหาศาล (จำนวนพารามิเตอร์รวมสูง) ในขณะที่ยังคงรักษาความต้องการด้านการคำนวณที่จัดการได้สำหรับการอนุมาน (การประมวลผลคำค้นหา) ทำให้มีความเป็นไปได้ในทางปฏิบัติมากขึ้นในการปรับใช้และดำเนินการในวงกว้าง

เกณฑ์มาตรฐานประสิทธิภาพและความเชี่ยวชาญเฉพาะทางของโมเดล

Meta ได้วางตำแหน่งโมเดลใหม่ของตนอย่างแข่งขัน โดยเปิดเผยผลการเปรียบเทียบภายในที่เปรียบเทียบ Llama 4 กับโมเดลเด่นจากคู่แข่ง เช่น OpenAI, Google และ Anthropic

Maverick ซึ่ง Meta กำหนดให้เหมาะสมที่สุดสำหรับแอปพลิเคชัน ‘ผู้ช่วยทั่วไปและแชท’ รวมถึงงานต่างๆ เช่น การเขียนเชิงสร้างสรรค์และการสร้างโค้ด มีรายงานว่าแสดงประสิทธิภาพที่เหนือกว่าเมื่อเทียบกับโมเดลต่างๆ เช่น GPT-4o ของ OpenAI และ Gemini 2.0 ของ Google ในเกณฑ์มาตรฐานเฉพาะ เกณฑ์มาตรฐานเหล่านี้ครอบคลุมด้านต่างๆ เช่น ความสามารถในการเขียนโค้ด การให้เหตุผลเชิงตรรกะ ความสามารถหลายภาษา การจัดการลำดับข้อความที่ยาว (long-context) และความเข้าใจภาพ อย่างไรก็ตาม ข้อมูลของ Meta เองบ่งชี้ว่า Maverick ไม่ได้เหนือกว่าความสามารถของโมเดลล่าสุดและทรงพลังที่สุดที่มีอยู่ในปัจจุบันอย่างสม่ำเสมอ เช่น Gemini 2.5 Pro ของ Google, Claude 3.7 Sonnet ของ Anthropic หรือ GPT-4.5 ที่คาดการณ์ไว้ของ OpenAI สิ่งนี้ชี้ให้เห็นว่า Maverick ตั้งเป้าที่จะอยู่ในตำแหน่งที่แข็งแกร่งในระดับประสิทธิภาพสูง แต่อาจไม่ได้ครองตำแหน่งสูงสุดในทุกตัวชี้วัดเมื่อเทียบกับโมเดลเรือธงใหม่ล่าสุดจากคู่แข่ง

Scout ในทางกลับกัน ได้รับการปรับแต่งเพื่อจุดแข็งที่แตกต่างกัน ความสามารถของมันโดดเด่นในงานที่เกี่ยวข้องกับการสรุปเอกสารขนาดยาวและการให้เหตุผลเกี่ยวกับฐานโค้ดขนาดใหญ่และซับซ้อน คุณลักษณะเฉพาะและโดดเด่นอย่างยิ่งของ Scout คือ context window ที่ใหญ่เป็นพิเศษ ซึ่งสามารถรองรับได้ถึง 10 ล้านโทเค็น โทเค็นคือหน่วยพื้นฐานของข้อความหรือโค้ดที่โมเดลภาษาประมวลผล (เช่น คำหนึ่งคำอาจถูกแบ่งออกเป็นหลายโทเค็น เช่น ‘un-der-stand-ing’) context window ขนาด 10 ล้านโทเค็น แปลในทางปฏิบัติได้ว่ามีความสามารถในการรับและประมวลผลข้อมูลจำนวนมหาศาลพร้อมกัน ซึ่งอาจเทียบเท่ากับคำนับล้านคำหรือไลบรารีโค้ดทั้งหมด สิ่งนี้ช่วยให้ Scout รักษาความสอดคล้องและความเข้าใจในเอกสารที่ยาวมากหรือโครงการเขียนโปรแกรมที่ซับซ้อน ซึ่งเป็นสิ่งที่ท้าทายสำหรับโมเดลที่มี context window ขนาดเล็กกว่า นอกจากนี้ยังสามารถประมวลผลภาพควบคู่ไปกับอินพุตข้อความขนาดใหญ่นี้ได้

ข้อกำหนดด้านฮาร์ดแวร์สำหรับการรันโมเดลเหล่านี้สะท้อนถึงขนาดและสถาปัตยกรรมของพวกมัน ตามการประมาณการของ Meta:

  • Scout ค่อนข้างมีประสิทธิภาพ สามารถทำงานบน GPU Nvidia H100 ระดับไฮเอนด์เพียงตัวเดียว
  • Maverick ซึ่งมีจำนวนพารามิเตอร์รวมที่มากกว่าแม้จะมีประสิทธิภาพของ MoE ก็ตาม ต้องการทรัพยากรที่สำคัญกว่า โดยต้องใช้ระบบ Nvidia H100 DGX (ซึ่งโดยทั่วไปประกอบด้วย GPU H100 หลายตัว) หรือพลังการคำนวณที่เทียบเท่า

โมเดล Behemoth ที่กำลังจะมาถึงคาดว่าจะต้องการโครงสร้างพื้นฐานฮาร์ดแวร์ที่น่าเกรงขามยิ่งกว่าเดิม Meta เปิดเผยว่า Behemoth ได้รับการออกแบบให้มีพารามิเตอร์ที่ใช้งาน 288 พันล้านตัว (จากพารามิเตอร์รวมเกือบสองล้านล้านตัว กระจายอยู่ใน 16 experts) เกณฑ์มาตรฐานภายในเบื้องต้นวางตำแหน่ง Behemoth ว่ามีประสิทธิภาพเหนือกว่าโมเดลต่างๆ เช่น GPT-4.5, Claude 3.7 Sonnet และ Gemini 2.0 Pro (แต่ที่น่าสังเกตคือ ไม่ใช่ Gemini 2.5 Pro ที่ล้ำหน้ากว่า) ในการประเมินหลายรายการที่มุ่งเน้นไปที่ทักษะ STEM (วิทยาศาสตร์ เทคโนโลยี วิศวกรรมศาสตร์ และคณิตศาสตร์) โดยเฉพาะอย่างยิ่งในด้านต่างๆ เช่น การแก้ปัญหาทางคณิตศาสตร์ที่ซับซ้อน

อย่างไรก็ตาม เป็นที่น่าสังเกตว่าไม่มีโมเดล Llama 4 ใดที่ประกาศในปัจจุบันได้รับการออกแบบมาอย่างชัดเจนว่าเป็นโมเดล ‘การให้เหตุผล’ (reasoning) ในลักษณะเดียวกับแนวคิด o1 และ o3-mini ที่กำลังพัฒนาของ OpenAI โมเดลการให้เหตุผลเฉพาะทางเหล่านี้มักจะรวมกลไกสำหรับการตรวจสอบข้อเท็จจริงภายในและการปรับปรุงคำตอบซ้ำๆ ซึ่งนำไปสู่การตอบสนองที่อาจน่าเชื่อถือและแม่นยำยิ่งขึ้น โดยเฉพาะอย่างยิ่งสำหรับคำถามเกี่ยวกับข้อเท็จจริง ข้อเสียเปรียบมักจะเป็นเวลาแฝงที่เพิ่มขึ้น (increased latency) ซึ่งหมายความว่าใช้เวลานานกว่าในการสร้างการตอบสนองเมื่อเทียบกับโมเดลภาษาขนาดใหญ่แบบดั้งเดิม เช่น โมเดลในตระกูล Llama 4 ซึ่งให้ความสำคัญกับการสร้างที่รวดเร็วกว่า

การปรับขอบเขตการสนทนา: หัวข้อที่เป็นที่ถกเถียง

แง่มุมที่น่าสนใจของการเปิดตัว Llama 4 เกี่ยวข้องกับการปรับแต่งพฤติกรรมการตอบสนองของโมเดลโดยเจตนาของ Meta โดยเฉพาะอย่างยิ่งเกี่ยวกับหัวข้อที่ละเอียดอ่อนหรือเป็นที่ถกเถียง บริษัทระบุอย่างชัดเจนว่าได้ปรับโมเดล Llama 4 ให้มีแนวโน้มน้อยลงที่จะปฏิเสธที่จะตอบคำถามที่ ‘เป็นที่ถกเถียง’ เมื่อเทียบกับรุ่นก่อนในตระกูล Llama 3

ตามข้อมูลของ Meta ตอนนี้ Llama 4 มีแนวโน้มที่จะมีส่วนร่วมกับหัวข้อทางการเมืองและสังคมที่ ‘เป็นที่ถกเถียง’ มากขึ้น ซึ่งเวอร์ชันก่อนหน้าอาจปฏิเสธหรือให้การปฏิเสธทั่วไป นอกจากนี้ บริษัทยังอ้างว่า Llama 4 แสดงแนวทางที่ ‘สมดุลมากขึ้นอย่างมาก’ เกี่ยวกับประเภทของข้อความแจ้ง (prompts) ที่จะปฏิเสธที่จะมีส่วนร่วมโดยสิ้นเชิง เป้าหมายที่ระบุไว้คือการให้คำตอบที่เป็นประโยชน์และเป็นข้อเท็จจริงโดยไม่ตัดสิน

โฆษกของ Meta ได้อธิบายเพิ่มเติมเกี่ยวกับการเปลี่ยนแปลงนี้ โดยกล่าวกับ TechCrunch ว่า: ‘[Y]ou can count on [Llama 4] to provide helpful, factual responses without judgment… [W]e’re continuing to make Llama more responsive so that it answers more questions, can respond to a variety of different viewpoints […] and doesn’t favor some views over others.’

การปรับเปลี่ยนนี้เกิดขึ้นท่ามกลางการถกเถียงสาธารณะและการเมืองอย่างต่อเนื่องเกี่ยวกับอคติที่รับรู้ในระบบปัญญาประดิษฐ์ ฝ่ายการเมืองและนักวิจารณ์บางกลุ่ม รวมถึงบุคคลสำคัญที่เกี่ยวข้องกับการบริหารของ Trump เช่น Elon Musk และนักลงทุนร่วมทุน David Sacks ได้กล่าวหาว่าแชทบอท AI ยอดนิยมแสดงอคติทางการเมือง ซึ่งมักถูกอธิบายว่าเป็น ‘woke’ โดยอ้างว่าเซ็นเซอร์มุมมองแบบอนุรักษ์นิยมหรือนำเสนอข้อมูลที่เอนเอียงไปทางมุมมองแบบเสรีนิยม ตัวอย่างเช่น Sacks เคยวิพากษ์วิจารณ์ ChatGPT ของ OpenAI ในอดีต โดยอ้างว่ามัน ‘ถูกตั้งโปรแกรมให้เป็น woke’ และไม่น่าเชื่อถือในเรื่องการเมือง

อย่างไรก็ตาม ความท้าทายในการบรรลุความเป็นกลางอย่างแท้จริงและการขจัดอคติใน AI ได้รับการยอมรับอย่างกว้างขวางในชุมชนเทคนิคว่าเป็นปัญหาที่ซับซ้อนและเรื้อรังอย่างไม่น่าเชื่อ (‘intractable’) โมเดล AI เรียนรู้รูปแบบและความสัมพันธ์จากชุดข้อมูลขนาดใหญ่ที่ใช้ฝึกฝน และชุดข้อมูลเหล่านี้สะท้อนถึงอคติที่มีอยู่ในข้อความและรูปภาพที่มนุษย์สร้างขึ้นอย่างหลีกเลี่ยงไม่ได้ ความพยายามในการสร้าง AI ที่ไม่มีอคติหรือเป็นกลางทางการเมืองอย่างสมบูรณ์แบบ แม้แต่โดยบริษัทที่ตั้งเป้าหมายไว้อย่างชัดเจน ก็พิสูจน์แล้วว่าทำได้ยาก กิจการ AI ของ Elon Musk เอง xAI มีรายงานว่าประสบปัญหาในการพัฒนาแชทบอทที่หลีกเลี่ยงการรับรองจุดยืนทางการเมืองบางอย่างเหนือกว่าจุดยืนอื่น

แม้จะมีความยากลำบากทางเทคนิคโดยธรรมชาติ แต่แนวโน้มในหมู่นักพัฒนา AI รายใหญ่ รวมถึง Meta และ OpenAI ดูเหมือนจะมุ่งไปสู่การปรับโมเดลให้หลีกเลี่ยงหัวข้อที่เป็นที่ถกเถียงน้อยลง ซึ่งเกี่ยวข้องกับการปรับเทียบตัวกรองความปลอดภัยและแนวทางการตอบสนองอย่างระมัดระวังเพื่อให้สามารถมีส่วนร่วมกับคำถามที่หลากหลายกว่าที่เคยได้รับอนุญาต ในขณะที่ยังคงพยายามลดการสร้างเนื้อหาที่เป็นอันตรายหรือมีอคติอย่างเปิดเผย การปรับแต่งอย่างละเอียดนี้สะท้อนให้เห็นถึงการดำเนินการที่ละเอียดอ่อนที่บริษัท AI ต้องทำระหว่างการส่งเสริมวาทกรรมแบบเปิด การรับรองความปลอดภัยของผู้ใช้ และการนำทางความคาดหวังทางสังคมและการเมืองที่ซับซ้อนเกี่ยวกับเทคโนโลยีอันทรงพลังของตน การเปิดตัว Llama 4 พร้อมกับการปรับเปลี่ยนที่ระบุไว้อย่างชัดเจนในการจัดการกับคำถามที่เป็นที่ถกเถียง แสดงถึงก้าวล่าสุดของ Meta ในการนำทางภูมิทัศน์ที่ซับซ้อนนี้