ศึกมัสก์ปะทะ OpenAI: แสงแห่งความหวัง?
อีลอน มัสก์ ฟ้อง OpenAI ที่เปลี่ยนเป็นบริษัทแสวงหาผลกำไร แต่ศาลอาจเปิดช่องให้ฝ่ายมัสก์สู้ต่อได้ สะท้อนความขัดแย้งระหว่างพันธกิจเดิมกับเป้าหมายเชิงพาณิชย์
อีลอน มัสก์ ฟ้อง OpenAI ที่เปลี่ยนเป็นบริษัทแสวงหาผลกำไร แต่ศาลอาจเปิดช่องให้ฝ่ายมัสก์สู้ต่อได้ สะท้อนความขัดแย้งระหว่างพันธกิจเดิมกับเป้าหมายเชิงพาณิชย์
OpenAI เปิดตัว GPT-4.5 ซึ่งเสนอให้กับผู้ใช้ Pro ในราคา $200/เดือน และผู้ใช้ Plus ในราคา $20/เดือน แม้ว่า Sam Altman จะอ้างว่าเป็น AI ที่สนทนาได้เป็นธรรมชาติมากขึ้น แต่หลายคนก็ยังสงสัยถึงความคุ้มค่า เนื่องจากไม่มีความก้าวหน้าด้านการให้เหตุผลที่ก้าวกระโดด และมีค่าใช้จ่ายสูง
OpenAI เปิดตัว GPT-4.5 ที่มีค่าบริการสูงถึง $200/เดือน สำหรับ Pro users แม้จะมีการปรับปรุง แต่ผลทดสอบจริงกลับพบว่าไม่ได้ดีกว่า GPT-4 มากนักในหลายด้าน
GPT-4.5 เป็นการปรับปรุง ไม่ใช่การปฏิวัติ, AI ในดาวเทียม, การเพิ่มขึ้นของแบบจำลองการให้เหตุผล, การวัด BBEH, การหลีกเลี่ยงวลีซ้ำๆ ใน ChatGPT, ข่าว AI
Qwen-32B ของ Alibaba เป็นแบบจำลองการให้เหตุผลที่เปิดให้ใช้งานได้ฟรี ซึ่งมีประสิทธิภาพสูงแม้จะมีขนาดเล็กกว่า DeepSeek R1 อย่างมาก โดยเน้นที่การเข้าถึงได้และการใช้ทรัพยากรอย่างมีประสิทธิภาพ รวมถึงความสามารถในการให้เหตุผลที่แข็งแกร่งและการตอบสนองต่อหัวข้อที่ละเอียดอ่อนอย่างน่าประหลาดใจ
Alibaba เปิดตัว QwQ-32B โมเดล AI ใหม่ที่ใช้พลังประมวลผลน้อยกว่า แต่มีความสามารถเทียบเท่าคู่แข่งในประเทศ หุ้นของบริษัทพุ่งสูงขึ้น 8% นักวิเคราะห์ชี้ว่านี่คือการแข่งขันด้าน AI ที่เข้มข้นของจีน และการกลับมาของ Jack Ma
ทีม Qwen ที่ Alibaba ได้เปิดตัว QwQ-32B โมเดล AI ขนาด 32 พันล้านพารามิเตอร์ที่โดดเด่น ซึ่งสามารถเทียบเคียงหรือเหนือกว่าโมเดลที่ใหญ่กว่าอย่าง DeepSeek-R1 ได้ด้วย Reinforcement Learning (RL) บน foundation models ที่แข็งแกร่ง
Miles Brundage อดีตนักวิจัยนโยบายของ OpenAI วิพากษ์วิจารณ์บริษัทว่า 'เขียนประวัติศาสตร์ใหม่' เกี่ยวกับการปรับใช้ AI ที่มีความเสี่ยง และกล่าวหาว่าบริษัทให้ความสำคัญกับ 'ผลิตภัณฑ์ที่ฉูดฉาด' มากกว่าความปลอดภัย
Alibaba เปิดตัว Qwen-32B โมเดลภาษาขนาด 32 พันล้านพารามิเตอร์ ที่มีประสิทธิภาพเทียบเท่า DeepSeek-R1 ขนาด 67.1 พันล้านพารามิเตอร์ ใช้ Reinforcement Learning เพิ่มขีดความสามารถ
GPT-4.5 ของ OpenAI จุดประเด็นถกเถียง ถึงแม้ขนาดใหญ่โต แต่น่าผิดหวังในบางด้าน บทความนี้จะสำรวจจุดแข็ง จุดอ่อน และนัยยะต่ออนาคตของ Large Language Models (LLMs)