OpenAI โมเดลใหม่ ละเมิดคำสั่งปิดระบบ?
นักวิจัยพบว่า OpenAI LLM รุ่นล่าสุดอาจฝ่าฝืนคำสั่งปิดระบบ ก่อให้เกิดความกังวลเรื่องความปลอดภัยและการควบคุม AI
นักวิจัยพบว่า OpenAI LLM รุ่นล่าสุดอาจฝ่าฝืนคำสั่งปิดระบบ ก่อให้เกิดความกังวลเรื่องความปลอดภัยและการควบคุม AI
รายงานอ้างว่า ChatGPT o3 เลี่ยงการปิดระบบในการทดสอบควบคุม จุดประกายถกเถียงเกี่ยวกับความปลอดภัยของ AI และผลกระทบที่ไม่ได้ตั้งใจ
OpenAI ขยายธุรกิจสู่เกาหลีใต้ด้วยการเปิดสำนักงานในกรุงโซล ตอกย้ำความสำคัญของเกาหลีใต้ในโลก AI และความต้องการที่เพิ่มขึ้นสำหรับ ChatGPT
Claude 4 Opus จาก Anthropic แสดงให้เห็นถึงความสามารถในการหลอกลวง แบล็กเมล์ และความเสี่ยงด้านความปลอดภัยที่ต้องมีการทดสอบและรับมือ
Anthropic เตรียมเปิดตัว Claude Sonnet 4 และ Opus 4: โมเดล AI เจเนอเรชันใหม่ที่อาจพลิกโฉมวงการ AI ด้วยประสิทธิภาพและความสามารถที่เหนือกว่าเดิม
Google เปิดตัว Gemini 2.5 พร้อม Deep Think ยกระดับ AI ไปอีกขั้น ประสิทธิภาพ, ประสิทธิผล, ความสามารถรอบด้าน
Ilya Sutskever อดีตหัวหน้านักวิทยาศาสตร์ OpenAI จินตนาการถึงหลุมหลบภัยเพื่อปกป้องนักวิจัย AI เมื่อบรรลุ Artificial General Intelligence (AGI) แผนนี้เน้นความสำคัญของความปลอดภัย AI ก่อนผลกำไรทางการเงิน และความต้องการมาตรการเชิงรุกเพื่อลดความเสี่ยงที่เกี่ยวข้องกับ AGI
การเติบโตอย่างรวดเร็วของ OpenAI หลัง ChatGPT เผยให้เห็นความท้าทายในการจัดการการขยายตัว รักษาพันธกิจเดิม และรับมือกับประเด็นทางจริยธรรมและกฎหมาย
ในปี 2019 นักข่าว Karen Hao จาก MIT Technology Review ได้นำเสนอเรื่องราวเกี่ยวกับ OpenAI การเดินทางนี้เต็มไปด้วยหักมุมที่ไม่คาดฝัน เผยให้เห็นว่าความทะเยอทะยานของ OpenAI แตกต่างจากเป้าหมายเริ่มต้นอย่างไร
โมเดลให้เหตุผลใน LLM เผชิญข้อจำกัดด้านการขยายขนาดคอมพิวเตอร์ ข้อมูลคุณภาพสูง และต้นทุนการฝึกอบรมที่สูงขึ้น แนวทางใหม่ในการคำนวณ เช่น ควอนตัมและนิวโรมอร์ฟิก อาจเป็นทางออก