ג'מיני 2.5 פרו של גוגל: סיכון ללא דוח בטיחות

השקת מודל ה-AI Gemini 2.5 Pro של גוגל מעוררת ביקורת בשל היעדר דו’ח בטיחות קריטי. השמטה זו סותרת לכאורה הבטחות שנתנה גוגל לממשלת ארה’ב ולפסגות בינלאומיות, ומעלה חששות לגבי מחויבות החברה לשקיפות ופיתוח אחראי של AI. מומחים מטילים כעת ספק האם גוגל ומעבדות AI מובילות אחרות נסוגות מהתחייבויותיהן ליידע את הציבור על היכולות והסיכונים הפוטנציאליים הקשורים למודלים שלהן.

הבטחות שבורות והתחייבויות שלא מולאו

היעדר דו’ח מחקר בטיחות לצד שחרור Gemini 2.5 Pro נתפס כהפרה של התחייבויות קודמות. ביולי 2023 השתתפה גוגל בפגישה בבית הלבן שאורגנה על ידי ממשל ביידן, שם הצטרפה לחברות AI בולטות אחרות בחתימה על סדרת התחייבויות. התחייבות מרכזית הייתה פרסום דו’חות עבור כל שחרורי המודלים הציבוריים הגדולים שעלו על מצב ה-AI העדכני ביותר באותה תקופה. לאור ההתקדמות שלו, ג’מיני 2.5 פרו בהחלט ייפול תחת תחום ההתחייבויות הללו של הבית הלבן.

באותה עת, גוגל הסכימה שדו’חות אלה יכללו:

  • הערכות בטיחות שנערכו, כולל הערכות של יכולות מסוכנות.
  • מגבלות ביצועים משמעותיות שיכולות להשפיע על מקרי שימוש מתאימים.
  • דיונים על השפעות המודל על סיכונים חברתיים כמו הוגנות והטיה.
  • תוצאות של בדיקות יריבות להערכת התאמת המודל לפריסה.

לאחר פגישת G7 בהירושימה, יפן, באוקטובר 2023, התחייבו גוגל וחברות אחרות לדבוק בקוד התנהגות וולונטרי לפיתוח AI מתקדם. קוד G7 זה הדגיש את החשיבות של דיווח פומבי על היכולות, המגבלות והיישומים המתאימים והלא מתאימים של מערכות AI מתקדמות. המטרה הייתה לשפר את השקיפות והאחריות בתחום ה-AI.

במאי 2024, בפסגה בינלאומית בנושא בטיחות AI שהתקיימה בסיאול, דרום קוריאה, חזרה גוגל על התחייבויותיה. החברה הבטיחה לחשוף בפומבי יכולות מודל, מגבלות, מקרי שימוש מתאימים ולא מתאימים, ולספק שקיפות סביב הערכות הסיכונים והתוצאות שלה.

תגובת גוגל ושקיפות מושהית

בתגובה לפניות לגבי דו’ח הבטיחות החסר, הצהיר דובר מטעם Google DeepMind, החטיבה האחראית לפיתוח מודלי ג’מיני, כי הג’מיני האחרון עבר בדיקות טרום שחרור. זה כלל הערכות פיתוח פנימיות והערכות הבטחה שנערכו לפני שחרור המודל. הדובר גם ציין כי דו’ח עם מידע בטיחות נוסף וכרטיסיות מודל ‘עתיד לבוא’. עם זאת, למרות שההצהרה הראשונית פורסמה ב-2 באפריל, אף כרטיס מודל לא פורסם עד כה.

מגמה רחבה יותר של הזנחת דיווח בטיחות

גוגל אינה לבדה בהתמודדות עם ביקורת בנוגע למחויבותה לבטיחות AI. מוקדם יותר השנה, OpenAI התמודדה גם היא עם ביקורת על כך שלא פרסמה כרטיס מודל בזמן עבור מודל המחקר העמוק שלה. במקום זאת, הם פרסמו כרטיס מערכת שבועות לאחר השחרור הראשוני של הפרויקט. באופן דומה, דו’ח הבטיחות האחרון של Meta עבור Llama 4 ספג ביקורת על היותו קצר מדי וחסר פירוט.

מקרים אלה מדגישים מגמה מדאיגה בתוך תעשיית ה-AI, כאשר כמה מעבדות גדולות אינן נותנות עדיפות לדיווח בטיחות בהתאם לשחרורי המודלים שלהן. זה מטריד במיוחד לאור ההתחייבויות הוולונטריות שחברות אלה נתנו לממשלת ארה’ב ולקהילה הבינלאומית להפיק דו’חות כאלה. התחייבויות אלה ניתנו בתחילה לממשל ביידן בשנת 2023 ולאחר מכן חוזקו באמצעות התחייבויות לציית לקוד ההתנהגות של AI שאומץ על ידי מדינות ה-G7 בפסגת ה-AI שלהן בהירושימה.

קווין בנקסטון, יועץ בנושא ממשל AI במרכז לדמוקרטיה וטכנולוגיה, הביע את אכזבתו וקבע כי כישלונות אלה מערערים את אמינות החברות המעורבות ומעלים שאלות לגבי מחויבותן לפיתוח AI אחראי.

שאלות ללא מענה והערכה חיצונית

הצהרת הדובר של גוגל גם לא התייחסה לשאלות ספציפיות האם ג’מיני 2.5 פרו הוגש להערכה חיצונית על ידי המכון לבטיחות AI של בריטניה או מכון הבטיחות AI של ארה’ב. בעבר, גוגל סיפקה דורות קודמים של מודלי Gemini שלה למכון לבטיחות AI של בריטניה להערכה.

בפסגת הבטיחות בסיאול, גוגל הצטרפה ל’התחייבויות בטיחות AI Frontier’, שכללו התחייבות לספק שקיפות ציבורית על יישום הערכות בטיחות. החריגים היחידים היו מקרים שבהם הדבר יגדיל את הסיכון או יחשוף מידע מסחרי רגיש במידה לא פרופורציונלית לתועלת החברתית. ההתחייבות קבעה גם כי מידע מפורט יותר שלא ניתן לשתף בפומבי עדיין צריך להיות משותף עם ממשלות המדינות שבהן מבוססות החברות, שהן ארה’ב במקרה של גוגל.

החברות גם התחייבו להסביר כיצד גורמים חיצוניים, כגון ממשלות, החברה האזרחית, אנשי אקדמיה והציבור, מעורבים בתהליך הערכת הסיכונים של מודלי ה-AI שלהן. כישלונה של גוגל לענות על שאלות ישירות האם הגישה את ג’מיני 2.5 פרו למעריכים ממשלתיים אמריקאים או בריטים עלול להפר גם התחייבות זו.

תעדוף פריסה על פני שקיפות

היעדר דו’ח בטיחות העלה חששות שגוגל עשויה לתעדף פריסה מהירה על פני שקיפות והערכות בטיחות יסודיות. סנדרה וכטר, פרופסורית וחוקרת בכירה במכון האינטרנט של אוקספורד, הדגישה את החשיבות של שקיפות במחקר וחדשנות אחראיים. היא ציירה אנלוגיה לתעשיות אחרות וקבעה כי ‘אם זה היה רכב או מטוס, לא היינו אומרים: בואו פשוט נוציא את זה לשוק כמה שיותר מהר ונבדוק את היבטי הבטיחות מאוחר יותר’. וכטר הביעה דאגה מכך שיש גישה רווחת בתחום ה-AI הגנרטיבי של ‘להוציא את זה החוצה ולדאוג, לחקור ולתקן את הבעיות עם זה מאוחר יותר’.

שינויים פוליטיים ולחצים תחרותיים

שינויים פוליטיים אחרונים, יחד עם היריבות המוגברת בין חברות הטכנולוגיה הגדולות, עשויים לתרום למעבר מהתחייבויות בטיחות קודמות כאשר החברות ממהרות לפרוס מודלי AI. וכטר ציינה כי ‘נקודת הלחץ עבור החברות האלה להיות מהירות יותר, מהירות יותר, להיות הראשונות, להיות הטובות ביותר, להיות דומיננטיות, שכיחה יותר ממה שהייתה בעבר’, והוסיפה כי תקני הבטיחות יורדים ברחבי התעשייה.

ירידת סטנדרטים אלה יכולה לנבוע מדאגה גוברת בקרב מדינות טכנולוגיות וכמה ממשלות כי נהלי בטיחות AI מעכבים חדשנות. בארה’ב, ממשל טראמפ אותת על כוונתו לאמץ גישה פחות מחמירה לוויסות AI בהשוואה לממשל ביידן. הממשל החדש כבר ביטל צו מנהלי מתקופת ביידן בנושא AI וטיפח קשרים הדוקים יותר עם מנהיגי הטכנולוגיה. בפסגת ה-AI האחרונה בפריז, סגן נשיא ארה’ב, ג’יי די ואנס, הצהיר כי ‘מדיניות AI תומכת צמיחה’ צריכה להיות בעדיפות על פני בטיחות, וכי AI היא ‘הזדמנות שממשל טראמפ לא יבזבז’.

באותה פסגה, גם בריטניה וגם ארה’ב סירבו לחתום על הסכם בינלאומי בנושא בינה מלאכותית שקידם גישה ‘פתוחה’, ‘מכילה’ ו’אתית’ לפיתוח הטכנולוגיה.

הצורך בדרישות שקיפות ברורות

בנקסטון הדגיש כי ‘אם אנחנו לא יכולים לסמוך על החברות האלה שימלאו אפילו את התחייבויות הבטיחות והשקיפות הבסיסיות ביותר שלהן בעת שחרור מודלים חדשים - התחייבויות שהן עצמן לקחו על עצמן מרצון - אז ברור שהן משחררות מודלים מהר מדי במרוץ התחרותי שלהן לשלוט בתחום’. הוא הוסיף כי כאשר מפתחי AI ממשיכים להיכשל בהתחייבויות אלה, יהיה זה חובה על המחוקקים לפתח ולאכוף דרישות שקיפות ברורות שהחברות לא יוכלו להתחמק מהן.

ההשלכות הרחבות יותר על ממשל AI

המחלוקת סביב Gemini 2.5 Pro של גוגל ודו’ח הבטיחות החסר מדגישה את הצורך הקריטי במסגרות ממשל AI חזקות. מסגרות אלה צריכות לטפל בסוגיות מפתח כגון:

  • שקיפות: הבטחה שמפתחי AI יהיו שקופים לגבי היכולות, המגבלות והסיכונים הפוטנציאליים של המודלים שלהם.
  • אחריותיות: קביעת קווי אחריות ברורים לפיתוח ופריסה של מערכות AI.
  • בטיחות: יישום נהלי בדיקות והערכה קפדניים של בטיחות כדי למזער את הסיכון לפגיעה.
  • שיקולים אתיים: שילוב עקרונות אתיים בתכנון ובפיתוח של מערכות AI.
  • מעורבות ציבורית: מעורבות עם הציבור כדי לטפח הבנה רחבה יותר של AI וההשלכות שלה.
  • שיתוף פעולה בינלאומי: שיתוף פעולה בינלאומי לפיתוח סטנדרטים נפוצים ושיטות עבודה מומלצות לממשל AI.

היעדר השקיפות סביב Gemini 2.5 Pro מדגיש את ההשלכות האפשריות של הזנחת היבטים מכריעים אלה של ממשל AI. ללא שקיפות ואחריותיות נאותות, קשה להעריך את ההשפעה האמיתית של מערכות AI ולהבטיח שהן מפותחות ונפרסות בצורה אחראית ואתית.

התקדמות: קריאה לאחריות רבה יותר

תעשיית ה-AI נמצאת בצומת דרכים קריטית. ככל שטכנולוגיות AI הופכות חזקות וחודרות יותר, חיוני שמפתחים יתעדפו בטיחות, שקיפות ושיקולים אתיים. המחלוקת סביב Gemini 2.5 Pro משמשת תזכורת לכך שהתחייבויות וולונטריות אינן תמיד מספיקות. ממשלות וגופי רגולציה חייבים למלא תפקיד פעיל יותר בקביעת סטנדרטים ברורים ואכיפת ציות.

יתר על כן, חיוני שמפתחי AI יתקשרו עם הציבור ויטפחו הבנה רחבה יותר של AI וההשלכות שלה. זה כולל להיות שקופים לגבי המגבלות והסיכונים הפוטנציאליים של מערכות AI, כמו גם הצעדים שננקטים כדי להפחית את הסיכונים הללו. על ידי עבודה משותפת, תעשיית ה-AI, ממשלות והציבור יכולים להבטיח שטכנולוגיות AI יפותחו וייפרסו באופן שיועיל לחברה כולה.