شمشیر دولبه هوش مصنوعی در ویروس شناسی
مطالعهای پیشگامانه نشان میدهد که مدلهای پیشرفته هوش مصنوعی (AI)، از جمله مدلهایی که پلتفرمهایی مانند ChatGPT و Claude را پشتیبانی میکنند، اکنون تواناییهای حل مسئله را در آزمایشگاههای مرطوب ویروس شناسی نشان میدهند که از ویروس شناسان باتجربه دارای مدرک دکترا فراتر میرود. این آشکارسازی، در حالی که پتانسیل عظیمی برای پیشبرد پیشگیری از بیماری دارد، نگرانیهای قابل توجهی را در مورد سوء استفاده احتمالی از هوش مصنوعی برای ایجاد سلاحهای بیولوژیکی مرگبار، به ویژه توسط افرادی که فاقد تخصص و ملاحظات اخلاقی لازم هستند، ایجاد میکند.
این مطالعه که به طور انحصاری با TIME به اشتراک گذاشته شد، یک تلاش مشترک با مشارکت محققان مرکز ایمنی هوش مصنوعی، آزمایشگاه رسانه MIT، UFABC (یک دانشگاه برزیلی) و SecureBio، یک سازمان غیرانتفاعی اختصاص داده شده به پیشگیری از همهگیری بود. تیم تحقیقاتی با ویروس شناسان برجسته مشورت کرد تا یک آزمون عملی بسیار چالش برانگیز را طراحی کند که توانایی مدلهای هوش مصنوعی را برای عیبیابی مؤثر روشها و پروتکلهای پیچیده آزمایشگاهی که معمولاً در تحقیقات ویروس شناسی استفاده میشوند، ارزیابی کند.
نتایج این آزمون خیره کننده بود. ویروس شناسان در سطح دکترا، علیرغم آموزش و تجربه گسترده خود، به طور متوسط فقط امتیاز دقت 22.1٪ را در زمینههای تخصصی اعلام شده خود کسب کردند. در مقابل، مدل o3 OpenAI به دقت چشمگیر 43.8٪ دست یافت، در حالی که Gemini 2.5 Pro گوگل امتیاز 37.6٪ را به دست آورد. این یافتهها نشان میدهد که مدلهای هوش مصنوعی به سرعت دانش و مهارتهای لازم برای انجام وظایف پیچیده در آزمایشگاههای ویروس شناسی را کسب میکنند و به طور بالقوه از تواناییهای متخصصان انسانی در زمینههای خاص فراتر میروند.
نگرانیها در مورد ایجاد سلاحهای بیولوژیکی
ست دونوف، دانشمند تحقیقاتی در SecureBio و یکی از نویسندگان این مطالعه، نگرانی خود را در مورد پیامدهای این یافتهها ابراز کرد. وی خاطرنشان کرد که برای اولین بار در تاریخ، تقریباً هر کسی که به این مدلهای هوش مصنوعی دسترسی دارد، میتواند یک متخصص ویروس شناسی هوش مصنوعی غیرداوری در اختیار داشته باشد که به طور بالقوه آنها را در فرآیندهای پیچیده آزمایشگاهی مورد نیاز برای ایجاد سلاحهای بیولوژیکی راهنمایی میکند.
دونوف تأکید کرد که در طول تاریخ، تلاشهای متعددی برای توسعه سلاحهای بیولوژیکی انجام شده است، اما بسیاری از این تلاشها به دلیل عدم دسترسی به تخصص لازم با شکست مواجه شدهاند. وی هشدار داد که در دسترس بودن گسترده مدلهای هوش مصنوعی که قادر به ارائه این تخصص هستند، نگرانیهای جدی در مورد سوء استفاده احتمالی و نیاز به احتیاط در نحوه توزیع این قابلیتها ایجاد میکند.
- خطر سوء استفاده توسط افراد غیر متخصص.
- پتانسیل ایجاد سلاحهای بیولوژیکی مرگبار.
- نیاز به احتیاط در توزیع تخصص ویروس شناسی هوش مصنوعی.
واکنش آزمایشگاههای هوش مصنوعی به نگرانیها
در پاسخ به یافتههای این مطالعه، نویسندگان نتایج را با آزمایشگاههای بزرگ هوش مصنوعی به اشتراک گذاشتند و برخی را بر آن داشت تا اقدام کنند. به عنوان مثال، xAI یک چارچوب مدیریت ریسک منتشر کرد که در آن قصد خود را برای اجرای محافظتهای ویروس شناسی در نسخههای آینده مدل هوش مصنوعی خود، Grok، تشریح کرد. OpenAI به TIME اطلاع داد که ‘اقدامات کاهشی جدید در سطح سیستم برای خطرات بیولوژیکی’ را برای مدلهای جدید خود که هفته گذشته منتشر شده بودند، مستقر کرده است. Anthropic نتایج عملکرد مدل را در مقاله در کارتهای سیستم اخیر گنجانده است، اما اقدامات کاهش دهنده خاصی را پیشنهاد نکرده است. Gemini گوگل از اظهار نظر به TIME خودداری کرد.
این پاسخها نشاندهنده آگاهی فزاینده در میان توسعهدهندگان هوش مصنوعی از خطرات احتمالی مرتبط با افزایش قابلیتهای هوش مصنوعی در ویروس شناسی و نیاز به اجرای محافظتهایی برای جلوگیری از سوء استفاده است.
وعده هوش مصنوعی در مبارزه با بیماری
علیرغم نگرانیها در مورد ایجاد سلاحهای بیولوژیکی، هوش مصنوعی همچنین وعده عظیمی برای پیشبرد تحقیقات ویروس شناسی و مبارزه با بیماریهای عفونی دارد. رهبران هوش مصنوعی مدتهاست که پتانسیل هوش مصنوعی را برای متحول کردن زیست پزشکی و تسریع در توسعه درمانها و درمانهای جدید تشخیص دادهاند.
به عنوان مثال، سام آلتمن، مدیرعامل OpenAI، در ژانویه در کاخ سفید اظهار داشت که ‘با پیشرفت این فناوری، شاهد خواهیم بود که بیماریها با سرعتی بیسابقه درمان میشوند.’ این خوشبینی با نشانههای دلگرمکننده پیشرفت در این زمینه پشتیبانی میشود. در اوایل سال جاری، محققان در موسسه پاتوژنهای نوظهور دانشگاه فلوریدا الگوریتمی را توسعه دادند که قادر به پیشبینی این است که کدام نوع ویروس کرونا ممکن است سریعترین گسترش را داشته باشد.
ارزیابی توانایی هوش مصنوعی در انجام کارهای آزمایشگاهی ویروس شناسی
در حالی که هوش مصنوعی در ارائه اطلاعات به سبک آکادمیک مرتبط با ویروس شناسی نویدبخش بوده است، شکاف بزرگی در درک توانایی آن در واقع انجام کارهای آزمایشگاهی ویروس شناسی باقی مانده است. برای رفع این شکاف، دونوف و همکارانش آزمایشی را به طور خاص برای سوالات دشوار و غیرقابل جستجو در گوگل طراحی کردند که نیاز به کمک عملی و تفسیر تصاویر و اطلاعاتی دارند که معمولاً در مقالات آکادمیک یافت نمیشوند.
سوالات به گونهای طراحی شده بودند که چالشهایی را که ویروس شناسان در کار روزانه خود با آن روبرو هستند، تقلید کنند، مانند عیبیابی مشکلاتی که هنگام کشت ویروسها در انواع و شرایط سلولی خاص با آن مواجه میشوند.
قالب به این صورت طراحی شده بود:
- ارائه یک سناریوی خاص.
- ارائه جزئیات در مورد راهاندازی آزمایش.
- درخواست از هوش مصنوعی برای شناسایی محتملترین مشکل.
هوش مصنوعی در تستهای عملی از ویروس شناسان بهتر عمل میکند
نتایج این آزمایش نشان داد که تقریباً هر مدل هوش مصنوعی از ویروس شناسان در سطح دکترا، حتی در زمینههای تخصصی خود، بهتر عمل میکند. این یافته نشان میدهد که مدلهای هوش مصنوعی نه تنها قادر به دسترسی و پردازش حجم عظیمی از دانش ویروس شناسی هستند، بلکه قادر به استفاده از این دانش برای حل مشکلات عملی در آزمایشگاه نیز هستند.
محققان همچنین مشاهده کردند که مدلها با گذشت زمان بهبود قابل توجهی نشان میدهند، که نشان میدهد آنها به طور مداوم در حال یادگیری و اصلاح مهارتهای خود در ویروس شناسی هستند. به عنوان مثال، Claude 3.5 Sonnet Anthropic از دقت 26.9٪ به دقت 33.6٪ از مدل ژوئن 2024 خود به مدل اکتبر 2024 خود جهش یافت. و پیشنمایش GPT 4.5 OpenAI در فوریه تقریباً 10 امتیاز درصد بهتر از GPT-4o عمل کرد.
پیامدهای قابلیتهای رو به رشد هوش مصنوعی
دان هندریکس، مدیر مرکز ایمنی هوش مصنوعی، تأکید کرد که مدلهای هوش مصنوعی اکنون در حال کسب مقدار نگرانکنندهای از دانش عملی هستند. اگر مدلهای هوش مصنوعی در محیطهای آزمایشگاهی مرطوب به همان اندازه که مطالعه نشان میدهد، توانا باشند، پیامدها بسیار گسترده خواهد بود.
از یک طرف، هوش مصنوعی میتواند کمک ارزشمندی به ویروس شناسان باتجربه در کار حیاتی خود در مبارزه با ویروسها، تسریع جدول زمانی پزشکی و توسعه واکسن، و بهبود آزمایشهای بالینی و تشخیص بیماری ارائه دهد. تام اینگلسبی، مدیر مرکز امنیت سلامت جانز هاپکینز، خاطرنشان کرد که هوش مصنوعی میتواند به دانشمندان در بخشهای مختلف جهان، به ویژه کسانی که فاقد مهارتها یا منابع تخصصی هستند، قدرت دهد تا کارهای روزمره ارزشمندی را بر روی بیماریهایی که در کشورهایشان رخ میدهند، انجام دهند.
- تسریع توسعه دارو و واکسن.
- بهبود آزمایشهای بالینی و تشخیص بیماری.
- توانمندسازی دانشمندان در محیطهای با منابع محدود.
خطر سوء استفاده توسط بازیگران بد نیت
از سوی دیگر، این مطالعه نگرانیهای جدی را در مورد سوء استفاده احتمالی از هوش مصنوعی توسط بازیگران بد نیت ایجاد میکند که میتوانند از این مدلها برای یادگیری نحوه ایجاد ویروسها بدون نیاز به آموزش و دسترسی معمولی مورد نیاز برای ورود به یک آزمایشگاه سطح ایمنی زیستی 4 (BSL-4) که خطرناکترین و عجیبترین عوامل عفونی را اداره میکند، استفاده کنند. اینگلسبی هشدار داد که هوش مصنوعی میتواند افراد بیشتری را با آموزش کمتر برای مدیریت و دستکاری ویروسها توانمند کند، که به طور بالقوه منجر به پیامدهای فاجعهباری میشود.
هندریکس از شرکتهای هوش مصنوعی خواست تا موانعی را برای جلوگیری از این نوع استفاده اجرا کنند و پیشنهاد کرد که عدم انجام این کار در عرض شش ماه بیاحتیاطی خواهد بود. وی پیشنهاد کرد که یک راه حل این است که این مدلها را دروازهدار کنیم، به طوری که فقط اشخاص ثالث مورد اعتماد با دلایل موجه برای دستکاری ویروسهای مرگبار، مانند محققان در گروه زیست شناسی MIT، به نسخههای فیلتر نشده آنها دسترسی داشته باشند.
- جلوگیری از سوء استفاده با اجرای موانع.
- دروازهبانی مدلها برای محدود کردن دسترسی به طرفهای مورد اعتماد.
- اطمینان از اینکه فقط محققان مجاز به قابلیتهای حساس دسترسی دارند.
امکانسنجی خودتنظیمی صنعت
هندریکس معتقد است که از نظر فناوری برای شرکتهای هوش مصنوعی امکانپذیر است که خودتنظیمی کنند و این نوع محافظتها را اجرا کنند. با این حال، وی نگرانی خود را در مورد اینکه آیا برخی از شرکتها تعلل میکنند یا به سادگی اقدامات لازم را انجام نمیدهند، ابراز کرد.
xAI، آزمایشگاه هوش مصنوعی ایلان ماسک، این مقاله را تصدیق کرد و سیگنال داد که این شرکت ‘به طور بالقوه از’ محافظتهای خاصی در مورد پاسخ دادن به سوالات ویروس شناسی، از جمله آموزش Grok برای رد درخواستهای مضر و اعمال فیلترهای ورودی و خروجی ‘استفاده خواهد کرد.
OpenAI اظهار داشت که جدیدترین مدلهای آن، o3 و o4-mini، با مجموعهای از محافظتهای مربوط به خطر بیولوژیکی، از جمله مسدود کردن خروجیهای مضر، مستقر شدهاند. این شرکت همچنین گزارش داد که یک کمپین تیمسازی قرمز هزار ساعته را اجرا کرده است که در آن 98.7 درصد از مکالمات ناامن مربوط به زیستی با موفقیت پرچمگذاری و مسدود شدهاند.
- آموزش مدلهای هوش مصنوعی برای رد درخواستهای مضر.
- اعمال فیلترهای ورودی و خروجی برای مسدود کردن محتوای خطرناک.
- انجام تمرینهای تیمسازی قرمز برای شناسایی و کاهش خطرات.
نیاز به سیاست و مقررات
علیرغم این تلاشها، اینگلسبی استدلال میکند که خودتنظیمی صنعت کافی نیست و از قانونگذاران و رهبران سیاسی میخواهد تا یک رویکرد سیاستگذاری برای تنظیم خطرات زیستی هوش مصنوعی ایجاد کنند. وی تأکید کرد که در حالی که برخی از شرکتها در حال سرمایهگذاری زمان و پول برای رسیدگی به این خطرات هستند، ممکن است دیگران این کار را نکنند، و وضعیتی را ایجاد میکنند که در آن مردم هیچ بینشی در مورد آنچه در حال وقوع است، ندارند.
اینگلسبی پیشنهاد کرد که قبل از انتشار نسخه جدیدی از یک LLM، باید ارزیابی شود تا اطمینان حاصل شود که پیامدهای در سطح همهگیری تولید نخواهد کرد. این امر مستلزم رویکردی جامعتر و هماهنگتر برای تنظیم قابلیتهای هوش مصنوعی در ویروس شناسی است که شامل هر دو ذینفع صنعت و دولت میشود.
- ارزیابی LLMها قبل از انتشار برای جلوگیری از پیامدهای در سطح همهگیری.
- توسعه یک رویکرد سیاستگذاری جامع برای تنظیم خطرات زیستی هوش مصنوعی.
- درگیر کردن هر دو ذینفع صنعت و دولت در فرآیند نظارتی.
برقراری تعادل بین نوآوری و ایمنی
چالش در ایجاد تعادل بین ترویج نوآوری در هوش مصنوعی و اطمینان از اینکه از این فناوریهای قدرتمند برای ایجاد سلاحهای بیولوژیکی مرگبار سوء استفاده نمیشود، نهفته است. این امر مستلزم یک رویکرد چندوجهی است که شامل:
- توسعه محافظتهای قوی برای جلوگیری از سوء استفاده.
- محدود کردن دسترسی به قابلیتهای حساس به طرفهای مورد اعتماد.
- تنظیم قابلیتهای هوش مصنوعی در ویروس شناسی.
- ترویج نوآوری مسئولانه و ملاحظات اخلاقی.
با برداشتن این گامها، میتوانیم از پتانسیل عظیم هوش مصنوعی برای پیشبرد تحقیقات ویروس شناسی و مبارزه با بیماریهای عفونی استفاده کنیم و در عین حال خطرات مرتبط با سوء استفاده از آن را کاهش دهیم. آینده هوش مصنوعی در ویروس شناسی به توانایی ما در پیمایش مسئولانه این چشمانداز پیچیده و اطمینان از اینکه این فناوریهای قدرتمند به نفع بشریت استفاده میشوند، بستگی دارد.