עליית בינה מלאכותית במעבדות וירולוגיה: חששות בטיחותיים

החרב הפיפיות של הבינה המלאכותית בווירולוגיה

מחקר פורץ דרך מגלה כי מודלים מתקדמים של בינה מלאכותית (AI), כולל אלו המפעילים פלטפורמות כמו ChatGPT ו-Claude, מדגימים כעת יכולות פתרון בעיות במעבדות וירולוגיה רטובות, העולות על אלו של וירולוגים מנוסים בעלי תואר דוקטור. גילוי זה, למרות שהוא טומן בחובו פוטנציאל עצום לקידום מניעת מחלות, מעלה גם חששות משמעותיים לגבי הפוטנציאל לשימוש לרעה בבינה מלאכותית ליצירת נשק ביולוגי קטלני, במיוחד על ידי אנשים חסרי המומחיות והשיקולים האתיים הדרושים.

המחקר, אשר שותף באופן בלעדי עם TIME, היה מאמץ משותף שכלל חוקרים ממרכז הבטיחות של AI, מעבדת המדיה של MIT, UFABC (אוניברסיטה ברזילאית) ו-SecureBio, ארגון ללא מטרות רווח המוקדש למניעת מגיפות. צוות המחקר התייעץ עם וירולוגים מובילים כדי לעצב מבחן מעשי מאתגר ביותר שהעריך את היכולת של מודלים של AI לטפל ביעילות בבעיות של פרוצדורות ופרוטוקולים מורכבים במעבדה המשמשים בדרך כלל במחקר וירולוגי.

תוצאות המבחן היו בולטות. וירולוגים ברמת דוקטורט, למרות ההכשרה והניסיון הנרחבים שלהם, השיגו ציון דיוק ממוצע של 22.1% בלבד בתחומי המומחיות המוצהרים שלהם. בניגוד מוחלט, מודל o3 של OpenAI השיג דיוק מרשים של 43.8%, בעוד Gemini 2.5 Pro של גוגל השיג 37.6%. ממצאים אלה מצביעים על כך שמודלים של AI רוכשים במהירות את הידע והכישורים הדרושים לביצוע משימות מורכבות במעבדות וירולוגיה, ועשוייםלעלות על היכולות של מומחים אנושיים בתחומים מסוימים.

חששות לגבי יצירת נשק ביולוגי

סת’ דונגו, מדען מחקר ב-SecureBio ואחד ממחברי המחקר, הביע את דאגתו לגבי ההשלכות של ממצאים אלה. הוא ציין כי, לראשונה בהיסטוריה, כמעט לכל אחד עם גישה למודלים אלה של AI יכול להיות מומחה לווירולוגיה בינה מלאכותית לא שיפוטי העומד לרשותו, ועלול להנחות אותו בתהליכי המעבדה המורכבים הנדרשים ליצירת נשק ביולוגי.

דונגו הדגיש כי לאורך ההיסטוריה נעשו ניסיונות רבים לפתח נשק ביולוגי, אך רבים מהניסיונות הללו נכשלו בשל היעדר גישה למומחיות הנדרשת. הוא הזהיר כי הזמינות הנרחבת של מודלים של AI המסוגלים לספק מומחיות זו מעלה חששות רציניים לגבי הפוטנציאל לשימוש לרעה ואת הצורך לנקוט משנה זהירות באופן הפצת יכולות אלה.

  • הסיכון לשימוש לרעה על ידי לא-מומחים.
  • הפוטנציאל ליצירת נשק ביולוגי קטלני.
  • הצורך לנקוט משנה זהירות בהפצת מומחיות לווירולוגיה בינה מלאכותית.

מעבדות AI מגיבות לחששות

בתגובה לממצאי המחקר, החוקרים שיתפו את התוצאות עם מעבדות AI גדולות, מה שגרם לחלקן לפעול. xAI, לדוגמה, פרסמה מסגרת ניהול סיכונים המתארת את כוונתה ליישם אמצעי הגנה וירולוגיים בגרסאות עתידיות של מודל ה-AI שלה Grok. OpenAI הודיעה ל-TIME כי ‘פרסה אמצעי הפחתת סיכונים ביולוגיים חדשים ברמת המערכת’ עבור המודלים החדשים שלה שיצאו בשבוע שעבר. Anthropic כללה תוצאות ביצועי מודלים על הנייר בכרטיסי מערכת אחרונים, אך לא הציעה אמצעי הפחתה ספציפיים. Gemini של גוגל סירבה להגיב ל-TIME.

תגובות אלה מצביעות על מודעות גוברת בקרב מפתחי AI לסיכונים הפוטנציאליים הקשורים ליכולות הגוברות של AI בווירולוגיה ולצורך ליישם אמצעי הגנה למניעת שימוש לרעה.

ההבטחה של AI במאבק במחלות

למרות החששות לגבי יצירת נשק ביולוגי, AI טומנת בחובה גם הבטחה עצומה לקידום מחקר וירולוגיה ולמאבק במחלות זיהומיות. מנהיגי AI הכירו זה מכבר בפוטנציאל של AI לחולל מהפכה בביורפואה ולהאיץ את הפיתוח של טיפולים ותרופות חדשים.

מנכ’ל OpenAI, סם אלטמן, למשל, הצהיר בבית הלבן בינואר כי ‘ככל שהטכנולוגיה הזו מתקדמת, נראה מחלות נרפאות בקצב חסר תקדים’. אופטימיות זו נתמכת בסימנים מעודדים להתקדמות בתחום זה. מוקדם יותר השנה, חוקרים במכון הפתוגנים המתעוררים של אוניברסיטת פלורידה פיתחו אלגוריתם המסוגל לחזות איזה וריאנט של קורונה עשוי להתפשט במהירות הרבה ביותר.

הערכת היכולת של AI לבצע עבודת מעבדה וירולוגית

בעוד AI הראתה הבטחה במתן מידע בסגנון אקדמי הקשור לווירולוגיה, נותר פער גדול בהבנת היכולת שלה לבצע בפועל עבודת מעבדה וירולוגית. כדי לטפל בפער זה, דונגו ועמיתיו עיצבו מבחן במיוחד לשאלות קשות שאינן ניתנות לגוגל הדורשות סיוע מעשי ופרשנות של תמונות ומידע שבדרך כלל אינם נמצאים במאמרים אקדמיים.

השאלות נועדו לחקות את האתגרים העומדים בפני וירולוגים בעבודתם היומיומית, כגון טיפול בבעיות שנתקלים בהן בזמן גידול וירוסים בסוגי תאים ותנאים ספציפיים.

הפורמט תוכנן כך:

  • הצגת תרחיש ספציפי.
  • מתן פרטים על הגדרת הניסוי.
  • בקשת מה-AI לזהות את הבעיה הסבירה ביותר.

AI עולה על וירולוגים במבחנים מעשיים

תוצאות הבדיקה חשפו כי כמעט כל מודל AI עולה על וירולוגים ברמת דוקטורט, אפילו בתוך תחומי המומחיות שלהם. ממצא זה מצביע על כך שמודלים של AI לא רק מסוגלים לגשת ולעבד כמויות עצומות של ידע וירולוגי, אלא גם ליישם ידע זה לפתרון בעיות מעשיות במעבדה.

החוקרים גם הבחינו שהמודלים הראו שיפור משמעותי עם הזמן, מה שמצביע על כך שהם לומדים ומחדדים את כישוריהם בווירולוגיה ללא הרף. לדוגמה, Claude 3.5 Sonnet של Anthropic קפץ מ-26.9% ל-33.6% דיוק מהמודל שלה ביוני 2024 למודל שלה באוקטובר 2024. ותצוגה מקדימה של GPT 4.5 של OpenAI בפברואר עלתה על GPT-4o בכמעט 10 נקודות אחוז.

ההשלכות של היכולות הגוברות של AI

דן הנדריקס, מנהל מרכז הבטיחות של AI, הדגיש שמודלים של AI רוכשים כעת כמות מדאיגה של ידע מעשי. אם מודלים של AI אכן מסוגלים בהגדרות מעבדה רטובה כפי שהמחקר מצביע, ההשלכות מרחיקות לכת.

מצד אחד, AI יכולה לספק סיוע רב ערך לווירולוגים מנוסים בעבודתם הקריטית במאבק בנגיפים, להאיץ את ציר הזמן של פיתוח תרופות וחיסונים ולשפר ניסויים קליניים ואיתור מחלות. טום אינגלסבי, מנהל מרכז ג’ונס הופקינס לביטחון בריאות, ציין ש-AI יכולה להעצים מדענים בחלקים שונים של העולם, במיוחד אלה שחסרים כישורים או משאבים מיוחדים, לבצע עבודה יומיומית חשובה על מחלות המתרחשות במדינותיהם.

  • האצת פיתוח תרופות וחיסונים.
  • שיפור ניסויים קליניים ואיתור מחלות.
  • העצמת מדענים במסגרות מוגבלות משאבים.

הסיכון לשימוש לרעה על ידי שחקנים חסרי תום לב

מצד שני, המחקר מעלה חששות רציניים לגבי הפוטנציאל לשימוש לרעה בבינה מלאכותית על ידי שחקנים חסרי תום לב שיכולים להשתמש במודלים אלה כדי ללמוד כיצד ליצור וירוסים ללא צורך בהכשרה הטיפוסית והגישה הנדרשת לכניסה למעבדת בטיחות ביולוגית ברמה 4 (BSL-4), המטפלת בחומרים הזיהומיים המסוכנים והאקזוטיים ביותר. אינגלסבי הזהיר ש-AI יכולה להעצים יותר אנשים עם פחות הכשרה לנהל ולתפעל וירוסים, מה שעלול להוביל לתוצאות קטסטרופליות.

הנדריקס דחק בחברות AI ליישם אמצעי הגנה למניעת סוג זה של שימוש, והציע כי אי ביצוע זאת תוך שישה חודשים יהיה פזיז. הוא הציע שפתרון אחד הוא להפוך את המודלים הללו לשער, כך שרק צדדים שלישיים מהימנים עם סיבות לגיטימיות לתפעל וירוסים קטלניים, כמו חוקרים במחלקה לביולוגיה של MIT, יוכלו לגשת לגרסאות הלא מסוננות שלהם.

  • מניעת שימוש לרעה על ידי יישום אמצעי הגנה.
  • שער מודלים כדי להגביל את הגישה לצדדים מהימנים.
  • הבטחת שלחוקרים מורשים בלבד תהיה גישה ליכולות רגישות.

היתכנות של ויסות עצמי בתעשייה

הנדריקס מאמין שזה אפשרי מבחינה טכנולוגית עבור חברות AI לווסת את עצמן וליישם סוגים אלה של אמצעי הגנה. עם זאת, הוא הביע דאגה לגבי אם חלק מהחברות יגררו רגליים או פשוט לא ינקטו בצעדים הדרושים.

xAI, מעבדת ה-AI של אילון מאסק, הכירה בנייר ורמזה שהחברה ‘עשויה להשתמש’ באמצעי הגנה מסוימים סביב מענה לשאלות וירולוגיה, כולל הכשרת Grok לדחות בקשות מזיקות והחלת מסנני קלט ופלט.

OpenAI הצהירה שהמודלים החדשים ביותר שלה, o3 ו-o4-mini, נפרסו עם מערך של אמצעי הגנה הקשורים לסיכונים ביולוגיים, כולל חסימת פלטים מזיקים. החברה דיווחה גם שהיא ניהלה קמפיין צוות אדום של אלף שעות שבו 98.7% מהשיחות הלא בטוחות הקשורות לביו סומנו ונחסמו בהצלחה.

  • הכשרת מודלים של AI לדחות בקשות מזיקות.
  • החלת מסנני קלט ופלט לחסימת תוכן מסוכן.
  • עריכת תרגילי צוות אדום לזיהוי ולהפחתת סיכונים.

הצורך במדיניות ורגולציה

למרות מאמצים אלה, אינגלסבי טוען שוויסות עצמי בתעשייה אינו מספיק וקורא למחוקקים ולמנהיגים פוליטיים לפתח גישה מדיניות לוויסות הסיכונים הביולוגיים של AI. הוא הדגיש שבעוד שחלק מהחברות משקיעות זמן וכסף כדי לטפל בסיכונים אלה, אחרות עשויות שלא, ויוצרות מצב שבו לציבור אין תובנה לגבי מה שקורה.

אינגלסבי הציע שלפני שחרור גרסה חדשה של LLM, יש להעריך אותה כדי להבטיח שהיא לא תפיק תוצאות ברמת מגיפה. זה ידרוש גישה מקיפה ומתואמת יותר לוויסות יכולות ה-AI בווירולוגיה, המערבת גם גורמים בתעשייה וגם גורמים ממשלתיים.

  • הערכת LLM לפני שחרור כדי למנוע תוצאות ברמת מגיפה.
  • פיתוח גישה מדיניות מקיפה לוויסות הסיכונים הביולוגיים של AI.
  • שילוב הן גורמים בתעשייה והן גורמים ממשלתיים בתהליך הרגולטורי.

השגת איזון בין חדשנות לבטיחות

האתגר טמון בהשגת איזון בין טיפוח חדשנות בבינה מלאכותית והבטחה שלא יעשה שימוש לרעה בטכנולוגיות חזקות אלה ליצירת נשק ביולוגי קטלני. זה דורש גישה רב-צדדית הכוללת:

  • פיתוח אמצעי הגנה חזקים למניעת שימוש לרעה.
  • הגבלת גישה ליכולות רגישות לצדדים מהימנים.
  • ויסות יכולות ה-AI בווירולוגיה.
  • קידום חדשנות אחראית ושיקולים אתיים.

על ידי נקיטת צעדים אלה, נוכל לרתום את הפוטנציאל העצום של AI לקידום מחקר וירולוגיה ולמאבק במחלות זיהומיות תוך צמצום הסיכונים הקשורים לשימוש לרעה בה. עתיד ה-AI בווירולוגיה תלוי ביכולתנו לנווט בנוף מורכב זה באחריות ולהבטיח שימוש בטכנולוגיות חזקות אלה לטובת האנושות.