ภูมิทัศน์ของแบบจำลองภาษาขนาดใหญ่ (LLMs) ได้เห็นการเปลี่ยนแปลงที่สำคัญ โดย Google ได้กลายเป็นผู้เล่นที่โดดเด่น ในขณะที่ Meta และ OpenAI เผชิญกับความท้าทายที่น่าสังเกต ในขั้นต้น OpenAI ครองตลาดด้วยแบบจำลอง GPT ที่แหวกแนว ซึ่งสร้างมาตรฐานใหม่สำหรับประสิทธิภาพของ LLM Meta ยังรักษาตำแหน่งที่สำคัญโดยนำเสนอแบบจำลองโอเพนเวต (open-weight models) ที่มีขีดความสามารถที่น่าประทับใจและอนุญาตให้ใช้ แก้ไข และปรับใช้โค้ดที่เปิดเผยต่อสาธารณชนได้อย่างไม่จำกัด
อย่างไรก็ตาม การครอบงำในช่วงต้นนี้ทำให้ยักษ์ใหญ่ด้านเทคโนโลยีรายอื่น ๆ รวมถึง Google ต้องไล่ตาม แม้ว่างานวิจัยที่สำคัญของ Google ในปี 2017 เกี่ยวกับสถาปัตยกรรม Transformer ซึ่งเป็นรากฐานของ LLM แต่ความพยายามในช่วงแรกของ บริษัท ถูกบดบังด้วยการเปิดตัว Bard ในปี 2023 ที่ถูกวิพากษ์วิจารณ์อย่างกว้างขวาง
เมื่อเร็ว ๆ นี้ กระแสได้พลิกผันด้วยการเปิดตัว LLM ใหม่ที่มีประสิทธิภาพจาก Google ควบคู่ไปกับความพ่ายแพ้ที่ Meta และ OpenAI ประสบ สิ่งนี้ได้เปลี่ยนแปลงพลวัตของภูมิทัศน์ LLM อย่างมีนัยสำคัญ
Meta’s Llama 4: ก้าวพลาด?
การเปิดตัว Llama 4 โดย Meta อย่างไม่คาดฝันในวันเสาร์ที่ 5 เมษายน ทำให้เกิดความประหลาดใจไปทั่วทั้งอุตสาหกรรม
การตัดสินใจเปิดตัวแบบจำลองหลักในช่วงสุดสัปดาห์ถูกมองว่าผิดธรรมเนียม ซึ่งนำไปสู่การตอบรับที่เงียบเชียบและบดบังการประกาศท่ามกลางกระแสข่าวในสัปดาห์ต่อมา
แม้ว่า Llama 4 จะมีจุดแข็งบางประการ รวมถึงความสามารถแบบมัลติโมดัล (multimodal capabilities) (การจัดการรูปภาพ เสียง และรูปแบบอื่น ๆ) และความพร้อมใช้งานในสามเวอร์ชัน (Llama 4 Behemoth, Maverick และ Scout) ที่มีขนาดและความแข็งแกร่งแตกต่างกัน แต่การเปิดตัวกลับได้รับการวิพากษ์วิจารณ์ โดยเฉพาะอย่างยิ่ง Llama 4 Scout มีหน้าต่างบริบท (context window) ขนาดใหญ่ถึง 10 ล้านโทเค็น (tokens) ทำให้แบบจำลองสามารถประมวลผลและสร้างข้อความจำนวนมหาศาลในการทำงานครั้งเดียวได้
อย่างไรก็ตาม การตอบรับแบบจำลองกลับกลายเป็นไม่ดีเมื่อพบความคลาดเคลื่อนเกี่ยวกับแนวทางการจัดอันดับของ Meta บน LMArena ซึ่งเป็นแพลตฟอร์มที่จัดอันดับ LLM ตามคะแนนโหวตของผู้ใช้ มีการค้นพบว่าแบบจำลอง Llama 4 ที่ใช้สำหรับการจัดอันดับนั้นแตกต่างจากแบบจำลองที่เปิดให้บุคคลทั่วไป LMArena ระบุว่า Meta ได้จัดเตรียม ‘แบบจำลองที่กำหนดเองเพื่อเพิ่มประสิทธิภาพตามความชอบของมนุษย์’
นอกจากนี้ การอ้างสิทธิ์ของ Meta เกี่ยวกับหน้าต่างบริบท 10 ล้านโทเค็นของ Llama 4 Scout ยังถูกตั้งข้อสงสัย แม้ว่าความถูกต้องทางเทคนิคของตัวเลขนี้ แต่เกณฑ์มาตรฐาน (benchmarks) เผยให้เห็นว่า Llama 4 ล้าหลังแบบจำลองคู่แข่งในด้านประสิทธิภาพบริบทระยะยาว
นอกจากความกังวลเหล่านี้ Meta ยังงดเว้นจากการเปิดตัวแบบจำลอง ‘ให้เหตุผล’ (reasoning) หรือ ‘ความคิด’ (thinking) ของ Llama 4 และระงับตัวแปรขนาดเล็กกว่า แม้ว่า บริษัท จะระบุว่าแบบจำลองให้เหตุผลกำลังจะมาถึง
Ben Lorica ผู้ก่อตั้งบริษัทที่ปรึกษาด้าน AI Gradient Flow ตั้งข้อสังเกตว่า Meta ได้เบี่ยงเบนไปจากแนวปฏิบัติมาตรฐานของการเปิดตัวที่เป็นระบบมากขึ้น ซึ่งส่วนประกอบทั้งหมดได้รับการเตรียมการอย่างเต็มที่ สิ่งนี้บ่งชี้ว่า Meta อาจกระตือรือร้นที่จะแสดงแบบจำลองใหม่ แม้ว่าจะขาดองค์ประกอบที่จำเป็น เช่น แบบจำลองให้เหตุผลและเวอร์ชันที่เล็กกว่า
OpenAI’s GPT-4.5: การถอยอย่างรวดเร็ว
OpenAI ก็เผชิญกับความท้าทายในช่วงไม่กี่เดือนที่ผ่านมาเช่นกัน
GPT-4.5 เปิดตัวเป็นการแสดงตัวอย่างการวิจัยเมื่อวันที่ 27 กุมภาพันธ์ ได้รับการยกย่องว่าเป็น ‘แบบจำลองที่ใหญ่ที่สุดและดีที่สุดของ บริษัท สำหรับการแชท’ เกณฑ์มาตรฐานของ OpenAI บ่งชี้ว่าโดยทั่วไป GPT-4.5 มีประสิทธิภาพเหนือกว่ารุ่นก่อน GPT-4o
อย่างไรก็ตาม โครงสร้างการกำหนดราคาของแบบจำลองได้รับการวิพากษ์วิจารณ์ OpenAI กำหนดราคาการเข้าถึง API ไว้ที่ 150 ดอลลาร์สหรัฐฯ ต่อล้านโทเค็นเอาต์พุต (output tokens) ซึ่งเพิ่มขึ้นถึง 15 เท่า เมื่อเทียบกับราคาของ GPT-4o ที่ 10 ดอลลาร์สหรัฐฯ ต่อล้านโทเค็น API ช่วยให้นักพัฒนาสามารถรวมแบบจำลอง OpenAI เข้ากับแอปพลิเคชันและบริการของตนได้
Alan D. Thompson ที่ปรึกษาและนักวิเคราะห์ด้าน AI ที่ Life Architect ประเมินว่า GPT-4.5 น่าจะเป็น LLM แบบดั้งเดิมที่ใหญ่ที่สุดที่เปิดตัวในช่วงไตรมาสแรกของปี 2025 โดยมีพารามิเตอร์ประมาณ 5.4 ล้านล้านพารามิเตอร์ เขาแย้งว่าขนาดที่ใหญ่โตเช่นนี้เป็นเรื่องยากที่จะพิสูจน์ได้เมื่อพิจารณาจากข้อจำกัดด้านฮาร์ดแวร์ในปัจจุบัน และก่อให้เกิดความท้าทายอย่างมากในการให้บริการฐานผู้ใช้ขนาดใหญ่
เมื่อวันที่ 14 เมษายน OpenAI ประกาศการตัดสินใจยุติการเข้าถึง GPT-4.5 ผ่าน API หลังจากน้อยกว่าสามเดือน แม้ว่า GPT-4.5 จะยังคงเข้าถึงได้ แต่จะจำกัดเฉพาะผู้ใช้ ChatGPT ผ่านอินเทอร์เฟซ ChatGPT เท่านั้น
การประกาศนี้เกิดขึ้นพร้อมกับการเปิดตัว GPT-4.1 ซึ่งเป็นแบบจำลองที่ประหยัดกว่าในราคา 8 ดอลลาร์สหรัฐฯ ต่อล้านโทเค็น เกณฑ์มาตรฐานของ OpenAI บ่งชี้ว่า GPT-4.1 ไม่ค่อยมีความสามารถเท่า GPT-4.5 โดยรวม แม้ว่าจะมีประสิทธิภาพที่เหนือกว่าในเกณฑ์มาตรฐานการเขียนโค้ดบางอย่าง
OpenAI เพิ่งเปิดตัวแบบจำลองการให้เหตุผลใหม่ o3 และ o4-mini โดยแบบจำลอง o3 แสดงให้เห็นถึงประสิทธิภาพเกณฑ์มาตรฐานที่แข็งแกร่งเป็นพิเศษ อย่างไรก็ตาม ต้นทุนยังคงเป็นข้อกังวล เนื่องจากราคาการเข้าถึง API สำหรับ o3 อยู่ที่ 40 ดอลลาร์สหรัฐฯ ต่อล้านโทเค็นเอาต์พุต
Google’s Ascendancy: คว้าโอกาส
การตอบรับแบบผสมผสานของ Llama 4 และ ChatGPT-4.5 สร้างโอกาสให้คู่แข่งได้ใช้ประโยชน์ และพวกเขาได้คว้าโอกาสนั้นไว้
การเปิดตัว Llama 4 ที่มีปัญหาของ Meta ไม่น่าจะทำให้นักพัฒนาท้อแท้จากการนำทางเลือกอื่นมาใช้ เช่น DeepSeek-V3, Gemma ของ Google และ Qwen2.5 ของ Alibaba LLM เหล่านี้ ซึ่งเปิดตัวในช่วงปลายปี 2024 ได้กลายเป็นแบบจำลองโอเพนเวตที่เป็นที่ต้องการในกระดานผู้นำ LMArena และ HuggingFace พวกเขาแข่งขันหรือเหนือกว่า Llama 4 ในเกณฑ์มาตรฐานยอดนิยม ให้การเข้าถึง API ที่ราคาไม่แพง และในบางกรณี สามารถดาวน์โหลดและใช้งานบนฮาร์ดแวร์ระดับผู้บริโภคได้
อย่างไรก็ตาม LLM ที่ล้ำสมัยของ Google, Gemini 2.5 Pro คือสิ่งที่ดึงดูดความสนใจอย่างแท้จริง
เปิดตัวเมื่อวันที่ 25 มีนาคม Google Gemini 2.5 Pro เป็น ‘แบบจำลองความคิด’ เช่นเดียวกับ GPT-o1 และ DeepSeek-R1 โดยใช้การกระตุ้นตัวเอง (self-prompting) เพื่อให้เหตุผลผ่านงาน Gemini 2.5 Pro เป็นแบบมัลติโมดัล มีหน้าต่างบริบทหนึ่งล้านโทเค็น และรองรับการวิจัยเชิงลึก
Gemini 2.5 ได้รับชัยชนะด้านเกณฑ์มาตรฐานอย่างรวดเร็ว รวมถึงตำแหน่งสูงสุดใน SimpleBench (แม้ว่าจะเสียตำแหน่งนั้นให้กับ o3 ของ OpenAI เมื่อวันที่ 16 เมษายน) และในดัชนี AI Intelligence Index แบบรวมของ Artificial Analysis ปัจจุบัน Gemini 2.5 Pro ครองตำแหน่งสูงสุดใน LMArena ณ วันที่ 14 เมษายน แบบจำลองของ Google ครอง 5 ใน 10 อันดับแรกบน LMArena รวมถึง Gemini 2.5 Pro, Gemini 2.0 สามรูปแบบ และ Gemma 3-27B
นอกเหนือจากประสิทธิภาพที่น่าประทับใจแล้ว Google ยังเป็นผู้นำด้านราคาอีกด้วย ขณะนี้ Google Gemini 2.5 สามารถใช้งานได้ฟรีผ่านแอป Gemini ของ Google และเว็บไซต์ AI Studio ของ Google ราค API ของ Google ยังมีการแข่งขันสูง โดย Gemini 2.5 Pro มีราคาอยู่ที่ 10 ดอลลาร์สหรัฐฯ ต่อล้านโทเค็นเอาต์พุต และ Gemini 2.0 Flash มีราคาเพียง 40 เซ็นต์ต่อล้านโทเค็น
Lorica ตั้งข้อสังเกตว่าสำหรับงานการให้เหตุผลปริมาณมาก เขามักจะเลือก DeepSeek-R1 หรือ Google Gemini ในขณะที่การใช้แบบจำลอง OpenAI ต้องพิจารณาเรื่องราคาอย่างรอบคอบมากขึ้น
แม้ว่า Meta และ OpenAI จะไม่ได้อยู่ในขอบเหวของการล่มสลาย แต่ OpenAI ก็ได้รับประโยชน์จากความนิยมของ ChatGPT ซึ่งรายงานว่ามีผู้ใช้งานหนึ่งพันล้านคนอย่างไรก็ตาม อันดับที่แข็งแกร่งของ Gemini และประสิทธิภาพเกณฑ์มาตรฐานบ่งชี้ถึงการเปลี่ยนแปลงในภูมิทัศน์ LLM ซึ่งปัจจุบันเป็นที่ชื่นชอบของ Google