تزايد كفاءة الذكاء الاصطناعي في علم الفيروسات

الذكاء الاصطناعي في علم الفيروسات: سلاح ذو حدين

كشفت دراسة رائدة عن أن نماذج الذكاء الاصطناعي المتقدمة، بما في ذلك تلك التي تدعم منصات مثل ChatGPT وClaude، تُظهر الآن قدرات على حل المشكلات في المختبرات الرطبة لعلم الفيروسات تتجاوز تلك الخاصة بعلماء الفيروسات المتمرسين الحاصلين على درجة الدكتوراه. هذا الكشف، في حين أنه يحمل إمكانات هائلة للنهوض بالوقاية من الأمراض، يثير أيضًا مخاوف كبيرة بشأن سوء الاستخدام المحتمل للذكاء الاصطناعي لإنشاء أسلحة بيولوجية فتاكة، لا سيما من قبل الأفراد الذين يفتقرون إلى الخبرة والاعتبارات الأخلاقية اللازمة.

الدراسة، التي تمت مشاركتها حصريًا مع TIME، كانت جهدًا تعاونيًا شمل باحثين من مركز سلامة الذكاء الاصطناعي، ومختبر الإعلام في معهد ماساتشوستس للتكنولوجيا، وUFABC (جامعة برازيلية)، وSecureBio، وهي منظمة غير ربحية مكرسة للوقاية من الأوبئة. استشار فريق البحث كبار علماء الفيروسات لتصميم اختبار عملي صعب للغاية يقيم قدرة نماذج الذكاء الاصطناعي على استكشاف الأخطاء وإصلاحها بفعالية في إجراءات وبروتوكولات المختبرات المعقدة المستخدمة بشكل شائع في أبحاث علم الفيروسات.

كانت نتائج الاختبار مذهلة. حقق علماء الفيروسات الحاصلون على درجة الدكتوراه، على الرغم من تدريبهم وخبرتهم الواسعة، متوسط درجة دقة يبلغ 22.1% فقط في مجالات خبرتهم المعلنة. في تناقض صارخ، حقق نموذج o3 الخاص بـ OpenAI دقة مذهلة بلغت 43.8%، بينما سجل Gemini 2.5 Pro من Google 37.6%. تشير هذه النتائج إلى أن نماذج الذكاء الاصطناعي تكتسب بسرعة المعرفة والمهارات اللازمة لأداء المهام المعقدة في مختبرات علم الفيروسات، مما قد يتجاوز قدرات الخبراء البشريين في مجالات معينة.

مخاوف بشأن استحداث أسلحة بيولوجية

أعرب سيث دونوهو، عالم الأبحاث في SecureBio والمؤلف المشارك للدراسة، عن قلقه بشأن تداعيات هذه النتائج. وأشار إلى أنه، للمرة الأولى في التاريخ، يمكن لأي شخص لديه حق الوصول إلى نماذج الذكاء الاصطناعي هذه أن يكون لديه خبير في علم الفيروسات بالذكاء الاصطناعي غير قضائي تحت تصرفه، مما قد يوجههم خلال عمليات المختبر المعقدة المطلوبة لإنشاء أسلحة بيولوجية.

أكد دونوهو أنه على مر التاريخ، بُذلت محاولات عديدة لتطوير أسلحة بيولوجية، لكن العديد من هذه المحاولات باءت بالفشل بسبب نقص الوصول إلى الخبرة اللازمة. وحذر من أن التوافر الواسع النطاق لنماذج الذكاء الاصطناعي القادرة على توفير هذه الخبرة يثير مخاوف جدية بشأن احتمال إساءة الاستخدام والحاجة إلى توخي الحذر في كيفية توزيع هذه القدرات.

  • خطر إساءة الاستخدام من قبل غير الخبراء.
  • احتمال إنشاء أسلحة بيولوجية فتاكة.
  • الحاجة إلى توخي الحذر في توزيع الخبرات في علم الفيروسات بالذكاء الاصطناعي.

مختبرات الذكاء الاصطناعي تستجيب للمخاوف

استجابة لنتائج الدراسة، شارك المؤلفون النتائج مع كبرى مختبرات الذكاء الاصطناعي، مما دفع البعض إلى اتخاذ إجراءات. على سبيل المثال، نشرت xAI إطارًا لإدارة المخاطر يوضح نيتها تنفيذ ضمانات لعلم الفيروسات في الإصدارات المستقبلية من نموذج الذكاء الاصطناعي Grok. أبلغت OpenAI TIME أنها “نشرت تخفيفات جديدة على مستوى النظام للمخاطر البيولوجية” لنماذجها الجديدة التي تم إصدارها الأسبوع الماضي. أدرجت Anthropic نتائج أداء النموذج في الورقة في بطاقات النظام الحديثة، لكنها لم تقترح تدابير تخفيف محددة. رفضت Gemini من Google التعليق لـ TIME.

تشير هذه الاستجابات إلى وعي متزايد بين مطوري الذكاء الاصطناعي بالمخاطر المحتملة المرتبطة بقدرات الذكاء الاصطناعي المتزايدة في علم الفيروسات والحاجة إلى تنفيذ ضمانات لمنع سوء الاستخدام.

وعد الذكاء الاصطناعي في مكافحة الأمراض

على الرغم من المخاوف بشأن استحداث الأسلحة البيولوجية، فإن الذكاء الاصطناعي يحمل أيضًا وعدًا هائلاً للنهوض بأبحاث علم الفيروسات ومكافحة الأمراض المعدية. لقد أدرك قادة الذكاء الاصطناعي منذ فترة طويلة إمكانات الذكاء الاصطناعي لإحداث ثورة في الطب الحيوي وتسريع تطوير علاجات وأدوية جديدة.

صرح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، على سبيل المثال، في البيت الأبيض في يناير أنه “مع تقدم هذه التكنولوجيا، سنرى الأمراض تُشفى بمعدل غير مسبوق”. هذا التفاؤل مدعوم بعلامات مشجعة للتقدم في هذا المجال. في وقت سابق من هذا العام، طور باحثون في معهد الأمراض الناشئة بجامعة فلوريدا خوارزمية قادرة على التنبؤ بمتغير فيروس كورونا الذي قد ينتشر بشكل أسرع.

تقييم قدرة الذكاء الاصطناعي على إجراء أعمال مختبر علم الفيروسات

في حين أظهر الذكاء الاصطناعي وعدًا في توفير معلومات بأسلوب أكاديمي متعلقة بعلم الفيروسات، إلا أن فجوة كبيرة ظلت قائمة في فهم قدرته على إجراء أعمال مختبر علم الفيروسات بالفعل. لمعالجة هذه الفجوة، صمم دونوهو وزملاؤه اختبارًا خصيصًا للأسئلة الصعبة التي لا يمكن البحث عنها في Google والتي تتطلب مساعدة عملية وتفسير الصور والمعلومات التي لا توجد عادة في الأوراق الأكاديمية.

صُممت الأسئلة لتقليد التحديات التي يواجهها علماء الفيروسات في عملهم اليومي، مثل استكشاف المشكلات التي تتم مواجهتها وإصلاحها أثناء استزراع الفيروسات في أنواع وظروف معينة من الخلايا.

تم تصميم التنسيق على النحو التالي:

  • تقديم سيناريو محدد.
  • تقديم تفاصيل حول إعداد التجربة.
  • مطالبة الذكاء الاصطناعي بتحديد المشكلة الأكثر احتمالا.

الذكاء الاصطناعي يتفوق على علماء الفيروسات في الاختبارات العملية

كشفت نتائج الاختبار أن كل نموذج من نماذج الذكاء الاصطناعي تقريبًا تفوق على علماء الفيروسات الحاصلين على درجة الدكتوراه، حتى في مجالات خبرتهم الخاصة. يشير هذا الاكتشاف إلى أن نماذج الذكاء الاصطناعي ليست قادرة فقط على الوصول إلى كميات هائلة من المعرفة الفيروسية ومعالجتها، ولكن أيضًا على تطبيق هذه المعرفة لحل المشكلات العملية في المختبر.

لاحظ الباحثون أيضًا أن النماذج أظهرت تحسنًا كبيرًا بمرور الوقت، مما يشير إلى أنها تتعلم باستمرار وتصقل مهاراتها في علم الفيروسات. على سبيل المثال، قفز Claude 3.5 Sonnet من Anthropic من دقة 26.9% إلى 33.6% من نموذج يونيو 2024 إلى نموذج أكتوبر 2024. وتفوق عرض أولي لـ GPT 4.5 من OpenAI في فبراير على GPT-4o بما يقرب من 10 نقاط مئوية.

الآثار المترتبة على القدرات المتنامية للذكاء الاصطناعي

أكد دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، أن نماذج الذكاء الاصطناعي تكتسب الآن قدرًا مثيرًا للقلق من المعرفة العملية. إذا كانت نماذج الذكاء الاصطناعي قادرة بالفعل في البيئات المعملية الرطبة كما تشير الدراسة، فإن الآثار المترتبة على ذلك بعيدة المدى.

من ناحية، يمكن للذكاء الاصطناعي أن يقدم مساعدة لا تقدر بثمن لعلماء الفيروسات ذوي الخبرة في عملهم الحاسم في مكافحة الفيروسات، وتسريع الجداول الزمنية لتطوير الأدوية واللقاحات، وتحسين التجارب السريرية واكتشاف الأمراض. أشار توم إنجلزبي، مدير مركز جونز هوبكنز للأمن الصحي، إلى أن الذكاء الاصطناعي يمكن أن يمكّن العلماء في أجزاء مختلفة من العالم، وخاصة أولئك الذين يفتقرون إلى المهارات أو الموارد المتخصصة، من إجراء عمل يومي قيم على الأمراض التي تحدث في بلدانهم.

  • تسريع تطوير الأدوية واللقاحات.
  • تحسين التجارب السريرية واكتشاف الأمراض.
  • تمكين العلماء في البيئات ذات الموارد المحدودة.

خطر إساءة الاستخدام من قبل الجهات الفاعلة سيئة النية

من ناحية أخرى، تثير الدراسة مخاوف جدية بشأن احتمال إساءة استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة سيئة النية الذين يمكنهم استخدام هذه النماذج لتعلم كيفية إنشاء فيروسات دون الحاجة إلى التدريب والوصول المعتاد المطلوب لدخول مختبر المستوى الرابع للسلامة البيولوجية (BSL-4)، الذي يتعامل مع أخطر العوامل المعدية والغريبة. حذر إنجلزبي من أن الذكاء الاصطناعي يمكن أن يمكّن المزيد من الأشخاص ذوي التدريب الأقل من إدارة الفيروسات والتلاعب بها، مما قد يؤدي إلى عواقب وخيمة.

حث هندريكس شركات الذكاء الاصطناعي على تنفيذ حواجز حماية لمنع هذا النوع من الاستخدام، واقترح أن الفشل في القيام بذلك في غضون ستة أشهر سيكون أمرًا متهورًا. واقترح أن أحد الحلول هو جعل هذه النماذج محصورة، بحيث لا يتمكن سوى أطراف ثالثة موثوقة لديها أسباب مشروعة للتلاعب بالفيروسات القاتلة، مثل الباحثين في قسم علم الأحياء في معهد ماساتشوستس للتكنولوجيا، من الوصول إلى إصداراتها غير المفلترة.

  • منع سوء الاستخدام عن طريق تنفيذ حواجز حماية.
  • حصر النماذج لتقييد الوصول إلى الأطراف الموثوقة.
  • ضمان حصول الباحثين المعتمدين فقط على إمكانات حساسة.

جدوى التنظيم الذاتي للصناعة

يعتقد هندريكس أنه من الممكن تقنيًا لشركات الذكاء الاصطناعي أن تنظم نفسها بنفسها وتنفذ هذه الأنواع من الضمانات. ومع ذلك، أعرب عن قلقه بشأن ما إذا كانت بعض الشركات ستتباطأ أو ببساطة تفشل في اتخاذ الخطوات اللازمة.

أقرت xAI، مختبر الذكاء الاصطناعي التابع لإيلون ماسك، بالورقة وأشارت إلى أن الشركة “قد تستخدم” بعض الضمانات حول الإجابة على أسئلة علم الفيروسات، بما في ذلك تدريب Grok على رفض الطلبات الضارة وتطبيق عوامل تصفية الإدخال والإخراج.

ذكرت OpenAI أن أحدث نماذجها، o3 و o4-mini، تم نشرها مع مجموعة من الضمانات المتعلقة بالمخاطر البيولوجية، بما في ذلك حظر المخرجات الضارة. وذكرت الشركة أيضًا أنها أجرت حملة فريق أحمر مدتها ألف ساعة تم فيها بنجاح الإبلاغ عن 98.7% من المحادثات غير الآمنة المتعلقة بالبيولوجيا وحظرها.

  • تدريب نماذج الذكاء الاصطناعي على رفض الطلبات الضارة.
  • تطبيق عوامل تصفية الإدخال والإخراج لحظر المحتوى الخطير.
  • إجراء تمارين الفريق الأحمر لتحديد المخاطر والتخفيف من حدتها.

الحاجة إلى السياسة والتنظيم

على الرغم من هذه الجهود، يجادل إنجلزبي بأن التنظيم الذاتي للصناعة ليس كافيًا ويدعو المشرعين والقادة السياسيين إلى تطوير نهج سياسي لتنظيم المخاطر البيولوجية للذكاء الاصطناعي. وأكد أنه في حين أن بعض الشركات تستثمر الوقت والمال لمعالجة هذه المخاطر، فقد لا يفعل البعض الآخر ذلك، مما يخلق وضعًا لا يتمتع فيه الجمهور بأي نظرة ثاقبة لما يحدث.

اقترح إنجلزبي أنه قبل إصدار إصدار جديد من LLM، يجب تقييمه للتأكد من أنه لن ينتج عنه نتائج على مستوى الوباء. سيتطلب ذلك اتباع نهج أكثر شمولاً وتنسيقًا لتنظيم قدرات الذكاء الاصطناعي في علم الفيروسات، وإشراك كل من الصناعة وأصحاب المصلحة الحكوميين.

  • تقييم LLMs قبل الإصدار لمنع النتائج على مستوى الوباء.
  • تطوير نهج سياسي شامل لتنظيم المخاطر البيولوجية للذكاء الاصطناعي.
  • إشراك كل من الصناعة وأصحاب المصلحة الحكوميين في العملية التنظيمية.

تحقيق التوازن بين الابتكار والسلامة

يكمن التحدي في تحقيق التوازن بين تعزيز الابتكار في الذكاء الاصطناعي وضمان عدم إساءة استخدام هذه التقنيات القوية لإنشاء أسلحة بيولوجية فتاكة. يتطلب ذلك اتباع نهج متعدد الأوجه يشمل:

  • تطوير ضمانات قوية لمنع سوء الاستخدام.
  • تقييد الوصول إلى القدرات الحساسة للأطراف الموثوقة.
  • تنظيم قدرات الذكاء الاصطناعي في علم الفيروسات.
  • تعزيز الابتكار المسؤول والاعتبارات الأخلاقية.

من خلال اتخاذ هذه الخطوات، يمكننا تسخير الإمكانات الهائلة للذكاء الاصطناعي للنهوض بأبحاث علم الفيروسات ومكافحة الأمراض المعدية مع التخفيف من المخاطر المرتبطة بإساءة استخدامه. يعتمد مستقبل الذكاء الاصطناعي في علم الفيروسات على قدرتنا على التنقل في هذا المشهد المعقد بمسؤولية وضمان استخدام هذه التقنيات القوية لصالح البشرية.