מאסק, בינה מלאכותית ו"טעות מנהלית" כנשק

עזיבתו של Elon Musk מיוזמת Defense Operational Guidance Enhancement (DOGE) עשויה להיראות כאירוע משמעותי, אך השפעתה האמיתית טמונה במידת הערנות של הציבור. הסיפור האמיתי אינו רק על קיצוצי תקציב או הפעלולים של Musk; מדובר בשילוב הנסתר של פרויקטים אידיאולוגיים במערכות הטכניות שמכוונות את ממשלת ארה”ב.

בפברואר, תיארתי את הרעיון של “הפיכה של בינה מלאכותית”, שבו Artificial Intelligence פועלת פחות ככלי ויותר כעין מחזה והצדקה. Large Language Models (LLMs) משמשים כמחוללי טקסטואליים, המספקים כיסוי נוח לפעולות שאף אחד לא רוצה לקחת עליהן אחריות. Elon Musk מילא תפקיד דומה, והסיח את דעת הקהל בהופעות סנסציוניות בעודו מבצע שינויים רדיקליים.

אחת הדוגמאות החמורות ביותר הייתה ביטול המימון של תוכנית שמנעה 26 מיליון מקרי מוות מאיידס, כולל ילדים. נבחרי ציבור התעלמו ברובם מהנושא, והעמידו פני חסרי אונים.

המעשים השנויים במחלוקת של Musk שימשו כמסך עשן נוח לפירוק הרדיקלי של הממשלה הפדרלית. בעוד שזה עורר תנועת מחאה עממית והשפיע לרעה על מכירות טסלה, זה הסווה את הנושא העמוק יותר של שילוב הבינה המלאכותית.

בעוד ש-Musk וטראמפ קידמו את קיצוצי התקציב האידיאולוגיים של DOGE, ניתוח ב- The Atlantic גילה שהוצאות הפדרליות הכוללות דווקא גדלו. השינוי באמצעות AI של כוח העבודה הפדרלי, שמוצג כאמצעי ל”יעילות ממשלתית”, ממשיך ברובו מבלי שיבחינו בו. DOGE השתמשה ב-Llama 2 כדי לסקור ולסווג מיילים מעובדים פדרליים, אבל החוזה של Palantir בסך 113 מיליון דולר ליצירת תשתית עצומה למעקב אזרחי מדגיש מגמה מטרידה. החברה גם משלבת את מודל השפה Grok של Musk בפלטפורמה שלה.

שגיאות תכנות

ה-Grok של xAI, תחת שליטתו הישירה של Musk, מספק דוגמה מדאיגה. המודל הגיב לשאילתות תמימות בתגובות המקדמות את מציאות רצח העם הלבן בדרום אפריקה. מניפולציה זו של ההנחיה הסמויה של המודל חושפת ניסיון מגושם להנדסה חברתית. מאוחר יותר נמצא שהמודל עוסק בהכחשת שואה, ש-xAI ייחסה ל”שגיאת תכנות”.

xAI הגיבה לאירוע “רצח העם הלבן” בציינה שהשינוי בהנחיה הפר מדיניות פנימית. הם הוסיפו ששינויים עתידיים בהנחיות המערכת יהיו כפופים לסקירה.

תקריות אלה מדגישות את הסיכונים הטמונים בהנחיות המערכת. כל אדם שיש לו שליטה על המודל יכול לשנות אותן, והן כפופות לבדיקה רק לאחר גילוי. הסתמכות על מודלי AI תאגידיים בקבלת החלטות ממשלתית מעניקה כוח פוליטי עצום לאליטות הטכנולוגיה.

בדרך כלל, אימוץ טכנולוגיה בממשלה כרוך בדיון זהיר ובסקירות אבטחה. ליישום של DOGE חסר פיקוח מתאים, מה שמעלה חששות לגבי עצמאותן של כל סקירה. על ידי שילוב נתוני סוכנויות במודל מאוחד, DOGE לא מצליחה להתחשב בצרכי האבטחה הספציפיים של סוכנויות בודדות. בעיקרו של דבר, DOGE מיישמת שינויים טרנספורמטיביים מבלי להעריך את הנחיצות, המספיקות או התועלת שלהם לאזרחים.

אם ממשל טראמפ היה באמת דואג לבניית מערכות אמינות, פעולותיו היו משקפות זאת. במקום זאת, DOGE וממשל טראמפ דיכאו פיקוח על ההטיות במודלי AI תאגידיים ומקרים של מניפולציה של הנחיות מערכת. בעקבות ביטול המימון של DOGE למחקר הטיה של AI, הצעת חוק חדשה שאושרה על ידי הקונגרס תאסור כל חוקים חדשים הנוגעים לפיקוח על AI בעשור הקרוב.

עובדים סוררים

עזיבתו של Musk מ-DOGE מותירה מאחור מורשת, המעוגנת בבחירת Palantir, חברת ה-AI שהוקמה על ידי ת’יל, שנבחרה על ידי Musk. Musk ו-Thiel היו מייסדים שותפים של Paypal, ות’יל הביע ספקנות לגבי התאימות של חופש ודמוקרטיה.

ריכוז הסמכויות שיזם Musk באמצעות DOGE יימשך, ויפעל בצורה דיסקרטית יותר. בעוד שעזיבתו מסמנת ניצחון לאלה שהתנגדו לו, עבודתה של DOGE נמשכת בניהול בירוקרטים שנשכרו בשל נאמנותם.

המטרה האמיתית של DOGE מעולם לא הייתה לבטל בזבוז ממשלתי, אלא להפוך את הבירוקרטיה לאוטומטית עם פחות אמצעי אחריותיות. מטרה זו של “יעילות ממשלתית” נותרה מוגדרת בצורה גרועה. ייעול הממשל אמור לפשט את האינטראקציות של האזרחים עם שירותים ומידע. במקום זאת, פיטורים יצרו צווארי בקבוק מערכתיים תוך פגיעה בפרטיות. קיצוצי מימון ל-IRS העלו חששות לגבי ביקורות והחזרים, שעלולים לעלות מיליארדי דולרים בהכנסות אבודות.

מטרתו של DOGE לא הייתה לייעל את הבירוקרטיה, אלא לבטל את האלמנט האנושי. היא נותנת עדיפות ליעילות בסגנון תעשייתי, מסווגת אזרחים ומניחה התעללות מערכתית. לאחר מכן ניתנות או נשללות זכויות והטבות על בסיס הטיות המוטמעות במערכת ה-AI.

לאלה השולטים בהגדרה ובאוטומציה של תגובות לקטגוריות אלה יש כוח משמעותי. מודלים משקפים את ההחלטות של אלה המאמנים אותם, לרבות הטיות מותרות ויעדי אופטימיזציה. כשהמנהלים הנוכחיים משתמשים בעקבות אלגוריתמיים, הבירוקרטיה מאבדת את הקשר האחרון שלה לאנושות.

שגיאות מנהליות

בירוקרטיה וטעות בירוקרטית אינן דבר חדש. מה שחסר תקדים הוא ניתוק האחריותיות האנושית לשגיאות, קידום אדישות להימנעות מהן.

שקול את הדו”ח הבריאותי של רוברט פ. קנדי ​​ג’וניור, שהכיל ציטוטים מפוברקים. מעשה זה היה סקנדל היסטורית, אך הוא נדחה כ”שגיאת עיצוב”. קנדי ​​מאמץ מדיניות שאינה נתמכת בראיות, ויצירת ה-AI של דוח זה מצביעה על מתן עדיפות למצגת על פני חקירה מדעית לגיטימית. האוטומציה של ראיות מפוברקות היא רק דרך אחת שבה AI הפכה לכלי עבור הממשל.

נראה ש-DOGE מתמקדת יותר בהענשת התנגדות לטראמפ - מהגרים, אקדמאים, מיעוטים גזעיים - ומאמציה הרחבים יוצרים שגיאות בלתי נמנעות. גירושו של Kilmar Abrego Garcia, שיוחס ל”טעות מנהלית”, ממחיש זאת. זה ממחיש שימוש מכוון בטעות כנשק.

בסופו של דבר, DOGE שואפת ליצור מערכת שבה ניתן להטיל את האשמה על תוצאות שנויות במחלוקת על “שגיאות מנהליות”, “תכנותיות” או “עיצוביות”. הממשל מעביר את האשמה לכלים פגומים, ומסרב לקבל אחריות. במקרה של גרסיה, הממשל מסרב לתקן את הטעות. זה מדגים עולם של סדר לא אמין, שבו רק אלה שמבטיחים נאמנות יינצלו.

אנו יוצרים סביבה שברירית שבה גורלות אישיים תלויים בגחמות של AI ובתוכנות הבלתי נראות שלה. מה קורה כאשר תוכניות AI אלה הן כלים מערערים המאחדים נתונים לארכיטקטורות מעקב מאוחדות?

בעוד שעזיבתו של Musk מ-DOGE עשויה לעורר דעיכה בתשומת הלב הציבורית, הסוגיות הבסיסיות נותרו: הטיה אלגוריתמית, היעדר אחריותיות ושחיקה של פיקוח אנושי. מגמות אלה, אם לא יבדקו אותן, עלולות לפגוע ביסודות של חברה צודקת ושוויונית.