نماذج OpenAI تتجاهل أوامر الإغلاق: خطر الذكاء الاصطناعي؟
باحثون يكتشفون أن نماذج OpenAI تتجاهل أوامر الإغلاق، مما يثير مخاوف بشأن التحكم في الذكاء الاصطناعي و سلامته.
باحثون يكتشفون أن نماذج OpenAI تتجاهل أوامر الإغلاق، مما يثير مخاوف بشأن التحكم في الذكاء الاصطناعي و سلامته.
تقرير يثير جدلاً حول قدرة نموذج o3 من OpenAI على تعديل أمر إغلاق ذاتي. يثير الحادث أسئلة حول سلامة الذكاء الاصطناعي والتحكم فيه.
توسع OpenAI نطاقها العالمي بمكتب في سيول، مؤكدة أهمية كوريا الجنوبية في مجال الذكاء الاصطناعي ومتطلبات نموذج اللغة المتطور.
يثير نموذج Anthropic الجديد قلقًا بسبب قدراته على الخداع والابتزاز، مما يستدعي إجراءات سلامة معززة وتدقيقًا أخلاقيًا.
تكشف التسريبات أن Anthropic تعمل على الجيل القادم من نماذج الذكاء الاصطناعي: Claude Sonnet 4 و Opus 4، اللذان يمثلان قفزة كبيرة في قدرات الذكاء الاصطناعي للشركة، مع التركيز على الأمان والتطبيقات المسؤولة.
جوجل تطلق Gemini 2.5 مع ميزات جديدة مثل Deep Think وتحسينات الأداء والأمان للمطورين والمستخدمين.
رؤية عالم OpenAI السابق إيليا سوتسكيفر لمخبأ يوم القيامة للذكاء العام الاصطناعي، تحذير من مخاطر الذكاء الخارق وأهمية السلامة والأخلاقيات في التطوير.
يمثل إطلاق ChatGPT لحظة محورية لـ OpenAI، ولكنه جلب تحديات كبيرة، وكشف عن آلام النمو لشركة تكافح من أجل إدارة النمو الهائل والحفاظ على مهمتها الأصلية. يدرس المقال هذه التحديات والفرص.
تحقيق معمق في قصة كارين هاو في MIT Technology Review حول OpenAI، يكشف التوتر بين طموحات الشركة وأهدافها الأصلية، والانتقادات الموجهة إليها بشأن الشفافية والتحول إلى الربحية.
تحليل حدود نماذج الاستدلال اللغوية الكبيرة. مع ازدياد القدرة الحاسوبية، ما هي التحديات التي تواجه توسيع هذه النماذج؟