مهارت فزاینده هوش مصنوعی در آزمایشگاه ویروس شناسی

شمشیر دولبه هوش مصنوعی در ویروس شناسی

مطالعه‌ای پیشگامانه نشان می‌دهد که مدل‌های پیشرفته هوش مصنوعی (AI)، از جمله مدل‌هایی که پلتفرم‌هایی مانند ChatGPT و Claude را پشتیبانی می‌کنند، اکنون توانایی‌های حل مسئله را در آزمایشگاه‌های مرطوب ویروس شناسی نشان می‌دهند که از ویروس شناسان باتجربه دارای مدرک دکترا فراتر می‌رود. این آشکارسازی، در حالی که پتانسیل عظیمی برای پیشبرد پیشگیری از بیماری دارد، نگرانی‌های قابل توجهی را در مورد سوء استفاده احتمالی از هوش مصنوعی برای ایجاد سلاح‌های بیولوژیکی مرگبار، به ویژه توسط افرادی که فاقد تخصص و ملاحظات اخلاقی لازم هستند، ایجاد می‌کند.

این مطالعه که به طور انحصاری با TIME به اشتراک گذاشته شد، یک تلاش مشترک با مشارکت محققان مرکز ایمنی هوش مصنوعی، آزمایشگاه رسانه MIT، UFABC (یک دانشگاه برزیلی) و SecureBio، یک سازمان غیرانتفاعی اختصاص داده شده به پیشگیری از همه‌گیری بود. تیم تحقیقاتی با ویروس شناسان برجسته مشورت کرد تا یک آزمون عملی بسیار چالش برانگیز را طراحی کند که توانایی مدل‌های هوش مصنوعی را برای عیب‌یابی مؤثر روش‌ها و پروتکل‌های پیچیده آزمایشگاهی که معمولاً در تحقیقات ویروس شناسی استفاده می‌شوند، ارزیابی کند.

نتایج این آزمون خیره کننده بود. ویروس شناسان در سطح دکترا، علیرغم آموزش و تجربه گسترده خود، به طور متوسط ​​فقط امتیاز دقت 22.1٪ را در زمینه‌های تخصصی اعلام شده خود کسب کردند. در مقابل، مدل o3 OpenAI به دقت چشمگیر 43.8٪ دست یافت، در حالی که Gemini 2.5 Pro گوگل امتیاز 37.6٪ را به دست آورد. این یافته‌ها نشان می‌دهد که مدل‌های هوش مصنوعی به سرعت دانش و مهارت‌های لازم برای انجام وظایف پیچیده در آزمایشگاه‌های ویروس شناسی را کسب می‌کنند و به طور بالقوه از توانایی‌های متخصصان انسانی در زمینه‌های خاص فراتر می‌روند.

نگرانی‌ها در مورد ایجاد سلاح‌های بیولوژیکی

ست دونوف، دانشمند تحقیقاتی در SecureBio و یکی از نویسندگان این مطالعه، نگرانی خود را در مورد پیامدهای این یافته‌ها ابراز کرد. وی خاطرنشان کرد که برای اولین بار در تاریخ، تقریباً هر کسی که به این مدل‌های هوش مصنوعی دسترسی دارد، می‌تواند یک متخصص ویروس شناسی هوش مصنوعی غیرداوری در اختیار داشته باشد که به طور بالقوه آنها را در فرآیندهای پیچیده آزمایشگاهی مورد نیاز برای ایجاد سلاح‌های بیولوژیکی راهنمایی می‌کند.

دونوف تأکید کرد که در طول تاریخ، تلاش‌های متعددی برای توسعه سلاح‌های بیولوژیکی انجام شده است، اما بسیاری از این تلاش‌ها به دلیل عدم دسترسی به تخصص لازم با شکست مواجه شده‌اند. وی هشدار داد که در دسترس بودن گسترده مدل‌های هوش مصنوعی که قادر به ارائه این تخصص هستند، نگرانی‌های جدی در مورد سوء استفاده احتمالی و نیاز به احتیاط در نحوه توزیع این قابلیت‌ها ایجاد می‌کند.

  • خطر سوء استفاده توسط افراد غیر متخصص.
  • پتانسیل ایجاد سلاح‌های بیولوژیکی مرگبار.
  • نیاز به احتیاط در توزیع تخصص ویروس شناسی هوش مصنوعی.

واکنش آزمایشگاه‌های هوش مصنوعی به نگرانی‌ها

در پاسخ به یافته‌های این مطالعه، نویسندگان نتایج را با آزمایشگاه‌های بزرگ هوش مصنوعی به اشتراک گذاشتند و برخی را بر آن داشت تا اقدام کنند. به عنوان مثال، xAI یک چارچوب مدیریت ریسک منتشر کرد که در آن قصد خود را برای اجرای محافظت‌های ویروس شناسی در نسخه‌های آینده مدل هوش مصنوعی خود، Grok، تشریح کرد. OpenAI به TIME اطلاع داد که ‘اقدامات کاهشی جدید در سطح سیستم برای خطرات بیولوژیکی’ را برای مدل‌های جدید خود که هفته گذشته منتشر شده بودند، مستقر کرده است. Anthropic نتایج عملکرد مدل را در مقاله در کارت‌های سیستم اخیر گنجانده است، اما اقدامات کاهش دهنده خاصی را پیشنهاد نکرده است. Gemini گوگل از اظهار نظر به TIME خودداری کرد.

این پاسخ‌ها نشان‌دهنده آگاهی فزاینده در میان توسعه‌دهندگان هوش مصنوعی از خطرات احتمالی مرتبط با افزایش قابلیت‌های هوش مصنوعی در ویروس شناسی و نیاز به اجرای محافظت‌هایی برای جلوگیری از سوء استفاده است.

وعده هوش مصنوعی در مبارزه با بیماری

علیرغم نگرانی‌ها در مورد ایجاد سلاح‌های بیولوژیکی، هوش مصنوعی همچنین وعده عظیمی برای پیشبرد تحقیقات ویروس شناسی و مبارزه با بیماری‌های عفونی دارد. رهبران هوش مصنوعی مدت‌هاست که پتانسیل هوش مصنوعی را برای متحول کردن زیست پزشکی و تسریع در توسعه درمان‌ها و درمان‌های جدید تشخیص داده‌اند.

به عنوان مثال، سام آلتمن، مدیرعامل OpenAI، در ژانویه در کاخ سفید اظهار داشت که ‘با پیشرفت این فناوری، شاهد خواهیم بود که بیماری‌ها با سرعتی بی‌سابقه درمان می‌شوند.’ این خوش‌بینی با نشانه‌های دلگرم‌کننده پیشرفت در این زمینه پشتیبانی می‌شود. در اوایل سال جاری، محققان در موسسه پاتوژن‌های نوظهور دانشگاه فلوریدا الگوریتمی را توسعه دادند که قادر به پیش‌بینی این است که کدام نوع ویروس کرونا ممکن است سریع‌ترین گسترش را داشته باشد.

ارزیابی توانایی هوش مصنوعی در انجام کارهای آزمایشگاهی ویروس شناسی

در حالی که هوش مصنوعی در ارائه اطلاعات به سبک آکادمیک مرتبط با ویروس شناسی نویدبخش بوده است، شکاف بزرگی در درک توانایی آن در واقع انجام کارهای آزمایشگاهی ویروس شناسی باقی مانده است. برای رفع این شکاف، دونوف و همکارانش آزمایشی را به طور خاص برای سوالات دشوار و غیرقابل جستجو در گوگل طراحی کردند که نیاز به کمک عملی و تفسیر تصاویر و اطلاعاتی دارند که معمولاً در مقالات آکادمیک یافت نمی‌شوند.

سوالات به گونه‌ای طراحی شده بودند که چالش‌هایی را که ویروس شناسان در کار روزانه خود با آن روبرو هستند، تقلید کنند، مانند عیب‌یابی مشکلاتی که هنگام کشت ویروس‌ها در انواع و شرایط سلولی خاص با آن مواجه می‌شوند.

قالب به این صورت طراحی شده بود:

  • ارائه یک سناریوی خاص.
  • ارائه جزئیات در مورد راه‌اندازی آزمایش.
  • درخواست از هوش مصنوعی برای شناسایی محتمل‌ترین مشکل.

هوش مصنوعی در تست‌های عملی از ویروس شناسان بهتر عمل می‌کند

نتایج این آزمایش نشان داد که تقریباً هر مدل هوش مصنوعی از ویروس شناسان در سطح دکترا، حتی در زمینه‌های تخصصی خود، بهتر عمل می‌کند. این یافته نشان می‌دهد که مدل‌های هوش مصنوعی نه تنها قادر به دسترسی و پردازش حجم عظیمی از دانش ویروس شناسی هستند، بلکه قادر به استفاده از این دانش برای حل مشکلات عملی در آزمایشگاه نیز هستند.

محققان همچنین مشاهده کردند که مدل‌ها با گذشت زمان بهبود قابل توجهی نشان می‌دهند، که نشان می‌دهد آنها به طور مداوم در حال یادگیری و اصلاح مهارت‌های خود در ویروس شناسی هستند. به عنوان مثال، Claude 3.5 Sonnet Anthropic از دقت 26.9٪ به دقت 33.6٪ از مدل ژوئن 2024 خود به مدل اکتبر 2024 خود جهش یافت. و پیش‌نمایش GPT 4.5 OpenAI در فوریه تقریباً 10 امتیاز درصد بهتر از GPT-4o عمل کرد.

پیامدهای قابلیت‌های رو به رشد هوش مصنوعی

دان هندریکس، مدیر مرکز ایمنی هوش مصنوعی، تأکید کرد که مدل‌های هوش مصنوعی اکنون در حال کسب مقدار نگران‌کننده‌ای از دانش عملی هستند. اگر مدل‌های هوش مصنوعی در محیط‌های آزمایشگاهی مرطوب به همان اندازه که مطالعه نشان می‌دهد، توانا باشند، پیامدها بسیار گسترده خواهد بود.

از یک طرف، هوش مصنوعی می‌تواند کمک ارزشمندی به ویروس شناسان باتجربه در کار حیاتی خود در مبارزه با ویروس‌ها، تسریع جدول زمانی پزشکی و توسعه واکسن، و بهبود آزمایش‌های بالینی و تشخیص بیماری ارائه دهد. تام اینگلس‌بی، مدیر مرکز امنیت سلامت جانز هاپکینز، خاطرنشان کرد که هوش مصنوعی می‌تواند به دانشمندان در بخش‌های مختلف جهان، به ویژه کسانی که فاقد مهارت‌ها یا منابع تخصصی هستند، قدرت دهد تا کارهای روزمره ارزشمندی را بر روی بیماری‌هایی که در کشورهایشان رخ می‌دهند، انجام دهند.

  • تسریع توسعه دارو و واکسن.
  • بهبود آزمایش‌های بالینی و تشخیص بیماری.
  • توانمندسازی دانشمندان در محیط‌های با منابع محدود.

خطر سوء استفاده توسط بازیگران بد نیت

از سوی دیگر، این مطالعه نگرانی‌های جدی را در مورد سوء استفاده احتمالی از هوش مصنوعی توسط بازیگران بد نیت ایجاد می‌کند که می‌توانند از این مدل‌ها برای یادگیری نحوه ایجاد ویروس‌ها بدون نیاز به آموزش و دسترسی معمولی مورد نیاز برای ورود به یک آزمایشگاه سطح ایمنی زیستی 4 (BSL-4) که خطرناک‌ترین و عجیب‌ترین عوامل عفونی را اداره می‌کند، استفاده کنند. اینگلس‌بی هشدار داد که هوش مصنوعی می‌تواند افراد بیشتری را با آموزش کمتر برای مدیریت و دستکاری ویروس‌ها توانمند کند، که به طور بالقوه منجر به پیامدهای فاجعه‌باری می‌شود.

هندریکس از شرکت‌های هوش مصنوعی خواست تا موانعی را برای جلوگیری از این نوع استفاده اجرا کنند و پیشنهاد کرد که عدم انجام این کار در عرض شش ماه بی‌احتیاطی خواهد بود. وی پیشنهاد کرد که یک راه حل این است که این مدل‌ها را دروازه‌دار کنیم، به طوری که فقط اشخاص ثالث مورد اعتماد با دلایل موجه برای دستکاری ویروس‌های مرگبار، مانند محققان در گروه زیست شناسی MIT، به نسخه‌های فیلتر نشده آنها دسترسی داشته باشند.

  • جلوگیری از سوء استفاده با اجرای موانع.
  • دروازه‌بانی مدل‌ها برای محدود کردن دسترسی به طرف‌های مورد اعتماد.
  • اطمینان از اینکه فقط محققان مجاز به قابلیت‌های حساس دسترسی دارند.

امکان‌سنجی خودتنظیمی صنعت

هندریکس معتقد است که از نظر فناوری برای شرکت‌های هوش مصنوعی امکان‌پذیر است که خودتنظیمی کنند و این نوع محافظت‌ها را اجرا کنند. با این حال، وی نگرانی خود را در مورد اینکه آیا برخی از شرکت‌ها تعلل می‌کنند یا به سادگی اقدامات لازم را انجام نمی‌دهند، ابراز کرد.

xAI، آزمایشگاه هوش مصنوعی ایلان ماسک، این مقاله را تصدیق کرد و سیگنال داد که این شرکت ‘به طور بالقوه از’ محافظت‌های خاصی در مورد پاسخ دادن به سوالات ویروس شناسی، از جمله آموزش Grok برای رد درخواست‌های مضر و اعمال فیلترهای ورودی و خروجی ‘استفاده خواهد کرد.

OpenAI اظهار داشت که جدیدترین مدل‌های آن، o3 و o4-mini، با مجموعه‌ای از محافظت‌های مربوط به خطر بیولوژیکی، از جمله مسدود کردن خروجی‌های مضر، مستقر شده‌اند. این شرکت همچنین گزارش داد که یک کمپین تیم‌سازی قرمز هزار ساعته را اجرا کرده است که در آن 98.7 درصد از مکالمات ناامن مربوط به زیستی با موفقیت پرچم‌گذاری و مسدود شده‌اند.

  • آموزش مدل‌های هوش مصنوعی برای رد درخواست‌های مضر.
  • اعمال فیلترهای ورودی و خروجی برای مسدود کردن محتوای خطرناک.
  • انجام تمرین‌های تیم‌سازی قرمز برای شناسایی و کاهش خطرات.

نیاز به سیاست و مقررات

علیرغم این تلاش‌ها، اینگلس‌بی استدلال می‌کند که خودتنظیمی صنعت کافی نیست و از قانونگذاران و رهبران سیاسی می‌خواهد تا یک رویکرد سیاست‌گذاری برای تنظیم خطرات زیستی هوش مصنوعی ایجاد کنند. وی تأکید کرد که در حالی که برخی از شرکت‌ها در حال سرمایه‌گذاری زمان و پول برای رسیدگی به این خطرات هستند، ممکن است دیگران این کار را نکنند، و وضعیتی را ایجاد می‌کنند که در آن مردم هیچ بینشی در مورد آنچه در حال وقوع است، ندارند.

اینگلس‌بی پیشنهاد کرد که قبل از انتشار نسخه جدیدی از یک LLM، باید ارزیابی شود تا اطمینان حاصل شود که پیامدهای در سطح همه‌گیری تولید نخواهد کرد. این امر مستلزم رویکردی جامع‌تر و هماهنگ‌تر برای تنظیم قابلیت‌های هوش مصنوعی در ویروس شناسی است که شامل هر دو ذینفع صنعت و دولت می‌شود.

  • ارزیابی LLM‌ها قبل از انتشار برای جلوگیری از پیامدهای در سطح همه‌گیری.
  • توسعه یک رویکرد سیاست‌گذاری جامع برای تنظیم خطرات زیستی هوش مصنوعی.
  • درگیر کردن هر دو ذینفع صنعت و دولت در فرآیند نظارتی.

برقراری تعادل بین نوآوری و ایمنی

چالش در ایجاد تعادل بین ترویج نوآوری در هوش مصنوعی و اطمینان از اینکه از این فناوری‌های قدرتمند برای ایجاد سلاح‌های بیولوژیکی مرگبار سوء استفاده نمی‌شود، نهفته است. این امر مستلزم یک رویکرد چندوجهی است که شامل:

  • توسعه محافظت‌های قوی برای جلوگیری از سوء استفاده.
  • محدود کردن دسترسی به قابلیت‌های حساس به طرف‌های مورد اعتماد.
  • تنظیم قابلیت‌های هوش مصنوعی در ویروس شناسی.
  • ترویج نوآوری مسئولانه و ملاحظات اخلاقی.

با برداشتن این گام‌ها، می‌توانیم از پتانسیل عظیم هوش مصنوعی برای پیشبرد تحقیقات ویروس شناسی و مبارزه با بیماری‌های عفونی استفاده کنیم و در عین حال خطرات مرتبط با سوء استفاده از آن را کاهش دهیم. آینده هوش مصنوعی در ویروس شناسی به توانایی ما در پیمایش مسئولانه این چشم‌انداز پیچیده و اطمینان از اینکه این فناوری‌های قدرتمند به نفع بشریت استفاده می‌شوند، بستگی دارد.