תפקיד ה-Llama 2 בתזכיר “מזלג בדרך”
על פי סקירה שערך Wired, גורמים הקשורים ל-DOGE (המחלקה ליעילות ממשלתית) של אילון מאסק, הפועלים במסגרת לשכת ניהול כוח האדם, הפעילו את מודל Llama 2 של Meta כדי לנתח ולסווג בקפידה תגובות של עובדי מדינה למייל השנוי במחלוקת “מזלג בדרך” שנשלח ברחבי הממשלה בסוף ינואר.
תזכיר “מזלג בדרך”, הדומה באופן בולט לתקשורת קודמת שמאסק שלח לעובדי טוויטר, הציג לעובדי מדינה בחירה: להפגין “נאמנות” על ידי קבלת מדיניות החזרה למשרד המתוקנת של הממשלה, או לבחור להתפטר. באותה תקופה, שמועות שהופצו העלו כי DOGE ממנפת בינה מלאכותית כדי לעבד נתוני עובדי מדינה. האישור הופיע מאז,ומאשר את השימוש ב-Llama 2 כדי לנפות תגובות של עובדים ולכמת את מספר ההתפטרויות.
עברו השנוי במחלוקת של Llama 2: יישומים צבאיים ותגובת Meta
ההיסטוריה של Llama 2 אינה חפה ממחלוקת. יש לציין, כי בנובמבר, חוקרים סינים מינפו את Llama 2 כאבן היסוד למודל בינה מלאכותית המועסק על ידי הצבא הסיני. גילוי זה עורר תגובה נגדית, והניע את Meta בתחילה לגנות את ההסתמכות ה"לא מורשית" של החוקרים על מודל "בודד" ו"מיושן". עם זאת, Meta הפכה מאוחר יותר את מדיניותה שאסרה יישומים צבאיים והרחיבה את הגישה למודלי הבינה המלאכותית שלה למטרות ביטחון לאומי אמריקאיות.
Meta הצהירה בפומבי על מחויבותה להנגיש את Llama לסוכנויות ממשלת ארה"ב, כולל אלה העוסקות ביישומים ביטחוניים וביטחון לאומי, כמו גם לשותפים מהמגזר הפרטי התומכים במאמציהם. הם הכריזו על שותפויות עם חברות כמו Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI ו- Snowflake כדי להקל על הפריסה של Llama ברחבי סוכנויות ממשלתיות.
Wired מציע כי האופי הקוד-פתוח של המודלים של Meta מאפשר לממשלה להעסיק אותם בקלות לתמיכה ביעדים של מאסק, אולי ללא הסכמה מפורשת של החברה. זיהוי היקף הפריסה של המודלים של Meta בתוך הממשלה נותר אתגר. ההיגיון מאחורי הסתמכותה של DOGE על Llama 2, במיוחד לאור ההתקדמות של Meta עם Llama 3 ו-4, אינו ברור.
ידע מוגבל על השימוש של DOGE ב-Llama 2
הפרטים לגבי היישום הספציפי של DOGE ב-Llama 2 נותרו מועטים. החקירה של Wired חשפה כי DOGE פרסה את המודל באופן מקומי, מה שמרמז על כך שלא סביר שהנתונים הועברו דרך האינטרנט, ובכך צמצמו את חששות הפרטיות שהביעו עובדי ממשלה רבים.
חששות בקונגרס וקריאות לחקירה
במכתב מאפריל שנשלח לראסל ווייט, מנהל משרד הניהול והתקציב, דרשו למעלה מ-40 מחוקקים חקירה יסודית של השימוש של DOGE בבינה מלאכותית. הם הביעו חששות ששימוש כזה, לצד סיכוני אבטחה פוטנציאליים, עלול לערער את האימוץ המוצלח והמתאים של בינה מלאכותית בתוך הממשלה.
המכתב התייחס ספציפית לאיש צוות של DOGE ועובד לשעבר של SpaceX, שלטענתו השתמש במודל xAI Grok-2 של מאסק כדי לפתח "עוזר בינה מלאכותית". הוא הזכיר גם את השימוש בצ’אטבוט בשם "GSAi", המבוסס על מודלים של Anthropic ו-Meta, כדי לנתח נתוני חוזים ורכש. בנוסף, DOGE קושרה לתוכנה בשם AutoRIF, שלטענתה נועדה לזרז פיטורים המוניים ברחבי הממשלה.
המחוקקים הדגישו "חששות גדולים לגבי אבטחה" סביב השימוש של DOGE ב"מערכות בינה מלאכותית לניתוח מיילים מחלק גדול מכוח העבודה הפדרלי המונה שני מיליון איש המתארים את הישגי השבוע הקודם שלהם", תוך ציון חוסר שקיפות.
מיילים אלה הגיעו בעקבות מיילים של "מזלג בדרך", והניעו עובדים לתאר את הישגי השבוע בנקודות חמש. עובדים הביעו חשש לגבי אופי התגובות, מחשש ש-DOGE עשוי לדרוש מידע רגיש ללא אישורי אבטחה מתאימים.
Wired לא הצליחה לאשר באופן סופי אם Llama 2 שימשה גם לניתוח תגובות מייל אלה. עם זאת, עובדים פדרליים הציעו ל-Wired כי DOGE עשויה "לעשות שימוש חוזר בקוד שלהם" מניסוי המייל "מזלג בדרך", אם זו הייתה החלטה שקולה.
מדוע לא נעשה שימוש ב-Grok
נשאלת השאלה: מדוע DOGE לא השתמשה ב- Grok?
ההסבר הסביר הוא ש-Grok, בהיותו מודל קנייני באותה תקופה, לא היה זמין למשימה של DOGE בינואר. לדברי Wired, DOGE עשויה להגדיל את הסתמכותה על Grok בהמשך, במיוחד לאור ההכרזה של מיקרוסופט כי היא תתחיל לארח את מודלי Grok 3 של xAI בקרן Azure AI שלה השבוע, ובכך תרחיב את היישומים הפוטנציאליים של המודל.
חששות המחוקקים: ניגודי עניינים ופריצות נתונים
במכתבם דחקו המחוקקים בווייט לחקור ניגודי עניינים פוטנציאליים הכוללים את מאסק, וגם הזהירו מפני פריצות נתונים פוטנציאליות. הם טענו כי בינה מלאכותית, כפי שמנוצלת על ידי DOGE, עדיין אינה מתאימה ליישומים ממשלתיים.
הם טענו כי "ללא הגנות נאותות, הזנת נתונים רגישים למערכת בינה מלאכותית מכניסה אותם לרשות מפעיל מערכת – הפרה מסיבית של אמון הציבור והעובדים ועלייה בסיכוני הסייבר סביב נתונים אלה." הם ציינו עוד כי "מודלים גנרטיביים של בינה מלאכותית גם עושים לעתים קרובות טעויות ומראים הטיה משמעותית – הטכנולוגיה פשוט אינה מוכנה לשימוש בקבלת החלטות בסיכון גבוה ללא בדיקה, שקיפות, פיקוח וגדרות נאותות."
בעוד שהדוח של Wired מצביע על כך ש-DOGE לא העבירה נתונים רגישים ממיילים של "מזלג בדרך" למקור חיצוני, מחוקקים תומכים בבדיקה חזקה יותר של מערכות בינה מלאכותית כדי לצמצם "את הסיכון של שיתוף מידע המאפשר זיהוי אישי או מידע רגיש אחר עם פורסי מודל הבינה המלאכותית."
דאגה רווחת היא שמאסק יכול למנף יותר ויותר את המודלים שלו, ועלול להרוויח מנתונים ממשלתיים שאינם נגישים למתחריו, ובו בזמן לחשוף נתונים אלה לסיכוני פריצה. מחוקקים מקווים ש-DOGE תיאלץ להפסיק את מערכות הבינה המלאכותית שלה. עם זאת, נראה שווייט מזדהה יותר עם הגישה של DOGE, כפי שמעיד מדריך הבינה המלאכותית שלו לשימוש פדרלי, המעודד סוכנויות "להסיר מחסומים לחדשנות ולספק את התמורה הטובה ביותר עבור משלם המסים."
המכתב של המחוקקים מדגיש כי "בעוד שאנו תומכים בשילוב הממשלה הפדרלית בטכנולוגיות בינה מלאכותית חדשות ומאושרות שיכולות לשפר את היעילות או היעילות, איננו יכולים להקריב אבטחה, פרטיות ותקני שימוש מתאימים בעת אינטראקציה עם נתונים פדרליים." הם גם קובעים כי "איננו יכולים לסלוח על שימוש במערכות בינה מלאכותית, שלעתים קרובות ידועות בהזיות ובדעות קדומות, בהחלטות הנוגעות לסיום העסקה פדרלית או מימון פדרלי ללא שקיפות ופיקוח מספיקים על מודלים אלה – הסיכון לאבד כישרון ומחקר קריטי בגלל טכנולוגיה פגומה או שימושים פגומים בטכנולוגיה כזו הוא פשוט גבוה מדי."
צלילה עמוקה להשלכות של שימוש בבינה מלאכותית ביוזמות יעילות ממשלתיות
הסאגה המתפתחת של ניצול המחלקה लीफिली ממשלתית (DOGE) של בינה מלאכותית במאמצי היעילות התפעולית שלה עוררה סערת דיונים ובדיקות. הגילוי כי הסוכנות נשענה על מודל Llama 2 של Meta – קוד פתוח AI – ולא על Grok AI הקנייני של אילון מאסק הוסיף שכבה של מורכבות לנראטיב מורכב כבר. מצב זה מצריך צלילה עמוקה להשלכות הרב-ממדיות של שילוב בינה מלאכותית בפעולות ממשלתיות, בדיקת היתרונות והסיכונים הטמונים, שיקולים מוסריים והפוטנציאל לניגודי עניינים.
הפיתוי והמכשולים של בינה מלאכותית בממשלה
השילוב של בינה מלאכותית בתפקידי ממשלה מבטיח התקדמות טרנספורמטיבית ביעילות, ניתוח נתונים וקבלת החלטות. מאוטומציה של משימות שגרתיות ועד ניפוי מערכי נתונים עצומים, לבינה מלאכותית יש פוטנציאל לפתוח רמות חסרות תקדים של פרודוקטיביות ולשפר את אספקת השירותים הציבוריים. דמיינו לעצמכם אלגוריתמים שיכולים לחזות כשלי תשתית, להתאים אישית את החינוך או לייעל את הקצאת המשאבים במאמצי סיוע לאסון. האפשרויות נראות אינסופיות.
אולם, מהפכה טכנולוגית זו אינה חפה ממכשולים. ההסתמכות על מערכות בינה מלאכותית מציגה רשת מורכבת של דילמות אתיות, פגיעויות אבטחה והטיות פוטנציאליות. מודלים של בינה מלאכותית מאומנים על נתונים, ואם נתונים אלה משקפים דעות קדומות חברתיות, הבינה המלאכותית תשריש ואף תגביר את ההטיות הללו. הדבר מהווה איום משמעותי על הוגנות ושווין בשירותים ממשלתיים, ועלול להוביל לתוצאות מפלות בתחומים כמו אכיפת החוק, רווחה חברתית וחינוך.
יתר על כן, השימוש בבינה מלאכותית מעלה שאלות מעמיקות לגבי שקיפות ואחריותיות. כאשר החלטות מתקבלות על ידי אלגוריתמים, ה הופך למאתגר להבין את ההיגיון מאחורי ההחלטות הללו, ולהקשות על הטלת אחריות על סוכנויות ממשלתיות על פעולותיהן.
התעלומה של Llama 2 לעומת Grok
הבחירה של Llama 2 על פני Grok מביאה עימה שיקולים משלה. האופי הקוד-פתוח של Llama 2 הופך אותו לנגיש וניתן להתאמה אישית בקלות, ומאפשר לסוכנויות ממשלתיות להתאים אותו לצרכים הספציפיים שלהן מבלי להיות נעולות במערכת אקולוגית קניינית. עם זאת, הדבר גם מצביע על כך שחסרה לו התמיכה והתחזוקה המסורות הנלוות בדרך כלל לפתרונות AI קנייניים.
מנגד, Grok, כבינה מלאכותית קניינית, מבטיחביצועים חדשניים ומומחיות מיוחדת. אולם, הוא גם מעלה חששות לגבי נעילת ספקים פוטנציאלית, פרטיות נתונים והטיה הנובעת מנתוני האימון של הבינה המלאכותית. היא מדגישה חששות بشأن הפוטנציאל של כל גורם פרטי, במיוחד כזה הקשור לאישיות בולטת הקשורה קשר הדוק למטרות הממשלה, להפעיל השפעה רבה שלא בצדק על תהליכי קבלת ההחלטות.
призраки ניגודי עניינים
מעורבות הגורמים של אילון מאסק (SpaceX ו-xAI) ביוזמות AI ממשלתיות מעלה את призраки של ניגודי עניינים. כאישיות בולטת בעלת אינטרסים מושכלים בתעשייות שונות, מעורבותו של מאסק מעלה שאלות לגבי ההשפעה הפוטנציאלית שעשוי להפעיל על מדיניות ממשלתית ומתן חוזים.
האם הממשלה תעניק יחס מועדף לחברות של מאסק? האם ישנם אמצעי הגנה נאותים כדי להבטיח שהחלטות יתקבלו ללא משוא פנים ולמען האינטרסים הטובים ביותר של הציבור? אלה שאלות לגיטימיות הדורשות בדיקה קפדנית.
חששות לגבי אבטחת מידע ופרטיות
השימוש בבינה מלאכותית בפעולות ממשלתיות כרוך בהכרח באיסוף, אחסון ועיבוד של נתוני אזרחים רגישים. הדבר יוצר מטרה מפתה עבור התקפות סייבר ופריצות נתונים. על הממשלה ליישם אמצעי אבטחה חזקים כדי להגן על נתונים זה מפני גישה ושימוש לרעה בלתי מורשים. הדבר מקיף לא רק הגנה על הנתונים מפני איומים חיצוניים, אלא גם הקמת בקרות גישה קפדניות ומנגנוני אחריותיות כדי למנוע התעללות פנימית.
החששות לגבי פרטיות נתונים מוגברים על ידי האופי האטימות של אלגוריתמי AI. לאזרחים אין בדרך כלל מושג כיצד הנתונים שלהם מעובדים או משמשים כדי לקבל החלטות המשפיעות על חייהם. חוסר שקיפות זה מצמצם את האמון בממשלה ויכול להוביל להתנגדות כנגד יוזמות מונחות AI.
ההשלכות לעתיד הממשלה
הדיון על השימוש של DOGE בלי AI אינו קשור רק למקרה ספציפי, אלא על עתיד רחב יותר של הממשלה בעידן הבינה המלאכותית. כיצד יכולה הממשלה לרתום את עוצמת הבינה המלאכותית כדי לשפר את השירותים הציבוריים תוך צמצום הסיכונים? כיצד يمكننا הבטיח שהבינה המלאכותית תשתלב באופן אתי, שקוף ואחראי?
התשובות לשאלות אלה דורשות גישה רב-צדדית:
להקים קווים מנחים ברורים: לקבוע набор ברור של עקרונות שמדיניותם השימוש של BI בממשלה. עקרונות אלה צריכים להעדיף מניעה, שקיפות, אחריותיות וכבד לפרטיות.
לקדם שקיפות ופתוחה: להבין את אלגוריתמי AI ואת תהליכי קבלת ההחלטות בדרכים أكثر שקופות. לספק דוחות המתארים כיצד הבונה המלאכותית משומשתבمמשלה וליצור מערוצי דרכים להציג הציבור ביקורת.
شيكאוף حבטחת מידע: ליישם אמצעים חזקות עבור אבטחת מידע שישלחו ناتونه אזרחי בבמט من התקפות סйبير وשימוש לרעה.
دمنע האכרתחיית: לקבוע רף ברור עבור המאשרים של החלטה נגזרת בידע AI. להרשות לנציגי מלך שבעים שנצמדים שינצרו את שימשו בבינה לאומית ويאשר את הלחצים שפחותים במשימות.
ליצור את הביטחון של הציבור: להפתיע את الציבור בסקאלי במוצר הבוט ובסימבול הבוט במשק הממשימה. לחובר תווך اזרحאזאז למאבחני נתינה ויצירת מאורעות אתים.
להצטרף לגישה מקדימה וביסוסית, הממשלה תוכל לרתום את כוח המגיה של בוט המם תוך כדי שמהירות באינטרסים של העם. הויכוח של دوף הוא רמאזון ירחבית לבוא ולסחור בהכנה זהירה, דיאליון פוראה והפנמה לעומק של עקרונות אתים.
הנרטיב המתרחש
הדרמה סביב השימוש של DOGE בבינה מלאכותית רחוקה מלהסתיים. ככל שהחקירות נמשכות וצצים פרטים נוספים, לאירוע יהיו ללא ספק השלכות על עתיד פריסת הבינה המלאכותית בתוך הממשלה. אני מקווה שהמצב הזה יוביל לשילוב מתחשב יותר של טכנולוגיה.