Nvidia แซง DeepSeek-R1 ด้วยโมเดลโอเพนซอร์สใหม่
Nvidia เปิดตัวโมเดล Llama-Nemotron เหนือกว่า DeepSeek-R1 เผยเคล็ดลับฝึกฝน 140,000 ชั่วโมงบน H100 พร้อมสถาปัตยกรรมใหม่เพื่อประสิทธิภาพการอนุมานที่เหนือกว่า
Nvidia เปิดตัวโมเดล Llama-Nemotron เหนือกว่า DeepSeek-R1 เผยเคล็ดลับฝึกฝน 140,000 ชั่วโมงบน H100 พร้อมสถาปัตยกรรมใหม่เพื่อประสิทธิภาพการอนุมานที่เหนือกว่า
Microsoft เปิดตัว Phi-4 โมเดล AI ขนาดเล็กแต่มีประสิทธิภาพสูงในการให้เหตุผล เรียนรู้จากข้อมูลเพียง 6,000 ตัวอย่าง ทำงานได้ดีกว่าโมเดลขนาดใหญ่บางตัว
LlamaCon เป็นเวทีหารือเกี่ยวกับ LLM และแอปพลิเคชัน multimodal แม้ไม่มีโมเดลใหม่ แต่เน้นย้ำถึงทิศทางในอนาคตของเทคโนโลยีนี้
DeepSeek ลดต้นทุนโมเดล AI พื้นฐาน ช่วยให้ธุรกิจขนาดเล็กเข้าถึง AI ได้ง่ายขึ้น เร่งการนำ AI ไปใช้ในวงกว้าง และส่งเสริมการแข่งขันในอุตสาหกรรม
Microsoft เปิดตัว Phi-4-reasoning-plus โมเดลภาษา open-weight สำหรับงานที่ต้องการการให้เหตุผลขั้นสูง ใช้ supervised fine-tuning และ reinforcement learning เพื่อประสิทธิภาพที่เหนือกว่า
ปรับปรุงการใช้เครื่องมือด้วยการปรับแต่งโมเดล Amazon Nova ให้เหมาะสมกับการใช้งานและเพิ่มประสิทธิภาพในการตัดสินใจของ AI
GPT-4.1 ของ OpenAI อ้างว่าปฏิบัติตามคำแนะนำได้ดี แต่การประเมินอิสระบ่งชี้ว่าอาจมีความน่าเชื่อถือน้อยกว่ารุ่นก่อน กระตุ้นให้เกิดคำถามเกี่ยวกับการพัฒนา AI และการแลกเปลี่ยนระหว่างพลังงานดิบและความสอดคล้องทางจริยธรรม
GPT-4.1 ของ OpenAI มีประสิทธิภาพด้อยกว่ารุ่นก่อนหน้าหรือไม่? การทดสอบอิสระชี้ให้เห็นถึงความไม่สอดคล้องและพฤติกรรมที่เป็นอันตรายที่อาจเกิดขึ้น
AI ขนาดเล็กกำลังได้รับความนิยมในองค์กร ลดค่าใช้จ่ายและเพิ่มประสิทธิภาพ เหนือกว่า LLM อเนกประสงค์ เน้นงานเฉพาะ ปรับแต่งข้อมูลได้ดีกว่า
C2S-Scale เปลี่ยนข้อมูล RNA ของเซลล์เดียวให้เป็นภาษาที่เข้าใจได้ ช่วยให้เข้าถึงข้อมูลชีวภาพได้ง่ายขึ้น และประยุกต์ใช้โมเดลภาษาธรรมชาติได้