טענות עולות לגבי שימוש לא מאושר בצ’אטבוט Grok מותאם אישית על ידי צוות ה-DOGE של אילון מאסק
דו”ח חדש חושף כי ייתכן שמחלקת היעילות הממשלתית (Department of Government Efficiency - DOGE) של אילון מאסק משתמשת בגרסה מותאמת של צ’אטבוט ה-Grok כדי לבחון נתוני ממשלת ארה”ב ללא אישור מתאים. ההעסקה לכאורה של הצ’אטבוט, שהגה стартап הבינה המלאכותית של מאסק, xAI, דווחה כמעוררת חששות לגבי ניגודי עניינים אפשריים ושמירה על מידע רגיש. מקורות המכירים את המצב טוענים כי צוות ה-DOGE מרחיב בהדרגה את השימוש ב-Grok במסגרות ממשלתיות.
חששות לניגוד עניינים וסיכוני אבטחת מידע
פריסה נטענת זו עלולה להפר את חוקי ניגוד העניינים ולסכן את הנתונים הרגישים של מיליוני אמריקאים, על פי המקורות שהוזכרו לעיל. מקור אחד שמכיר ישירות את הדינמיקה התפעולית של DOGE גילה כי הצוות של מאסק ממנף צ’אטבוט Grok מותאם אישית כדי להגביר את יעילות עיבוד הנתונים של DOGE. זה כרוך בהצגת שאלות, הפקת דוחות וביצוע ניתוחי נתונים.
יתר על כן, צוין כי DOGE מעודדת פקידים מהמחלקה לביטחון המולדת לאמץ את הכלי, למרות שלא עברה אישור רשמי של המחלקה. בעוד שערכות הנתונים המדויקות שהוזנו למערכת הבינה המלאכותית הגנרטיבית נותרו לא מאומתות, העובדה ש-Grok מקורו מ-xAI, המיזם הטכנולוגי של מאסק שהושק בשנת 2023 בפלטפורמת המדיה החברתית X שלו, מצדיקה התייחסות.
הפרות פוטנציאליות של תקנות אבטחה ופרטיות
מומחי טכנולוגיה ואתיקה ממשלתית מזהירים שאם מידע ממשלתי רגיש או סודי משולב, הסדר זה עלול להחיש הפרות של תקנות אבטחה ופרטיות. המומחים הביעו חששות מכך שהוא עלול להעניק למנכ”л Tesla ו-SpaceX גישה לנתוני התקשרות פדרליים קנייניים שמקורם בסוכנויות שאיתן הוא עוסק בעסקים פרטיים. הם מציעים שניתן להשתמש בנתונים אלה כחומר הדרכה עבור Grok, פעילות שבה מודלים של בינה מלאכותית поглощают כמות ניכרת של מערכות נתונים.
דאגה נוספת היא הפוטנציאל של מאסק להשיג יתרון תחרותי לא הוגן על פני ספקי AI אחרים באמצעות פריסת Grok בתוך הממשל הפדרלי. למרות הטענות החמורות הללו, דובר מטעם המשרד לביטחון המולדת опроверг טענות כי DOGE כופה על צוות DHS להשתמש ב-Grok, תוך שהוא מדגיש את המחויבות של DOGE לזהות ולהילחם בבזבוז, הונאה ושימוש לרעה.
צלילה עמוקה יותר לתוך ההשלכות וההשלכות האפשריות
הנרטיב המתפתח סביב השימוש הבלתי מורשה לכאורה בצ’אטבוט Grok מותאם אישית על ידי צוות ה-DOGE של אילון מאסק בתוך ממשלת ארה”ב מעלה שאלות עמוקות לגבי פרטיות נתונים, ניגודי עניינים ופריסה אתית של בינה מלאכותית בשירות הציבורי. הטענות, אם יוכחו, עלולות לא רק לגרום להשלכות משפטיות ורגולטוריות משמעותיות, אלא גם לכרסם באמון הציבור ביכולתה של הממשלה להגן על מידע רגיש.
מהות הטענות: גישה ושימוש לא מאושרים
במרכז העניין טמונה הטענה כי DOGE, מחלקה שלכאורה מתמקדת בשיפור היעילות הממשלתית, משתמשת בגרסה מותאמת של Grok, צ’אטבוט AI שפותח על ידי המיזם xAI של מאסק, כדי לנתח נתוני ממשלת ארה”ב. פעולה זו, על פי מקורות פנימיים, לא קיבלה את האישורים הדרושים, ובכך מפרה פרוטוקולים מבוססים ומעוררת חששות לגבי שקיפות ואחריותיות.
התאמה אישית: חרב פיפיות
מהות הסוגיה אינה טמונה רק בשימוש ב-Grok, אלא בעובדה שלכאורה מדובר בגרסה מותאמת. התאמה אישית מרמזת שהצ’אטבוט עוצב במיוחד לביצוע משימות מסוימות או גישה למערכות נתונים מסוימות. אם התאמה אישית זו בוצעה ללא פיקוח נאות או אמצעי אבטחה, היא עלולה לחשוף את המערכת לפגיעויות, כולל הפרות נתונים וגישה לא מורשית.
ניגוד עניינים: התפקיד הכפול של מאסק
ניגוד העניינים הפוטנציאלי נובע מתפקידיו המגוונים של אילון מאסק כמנכ”л Tesla ו-SpaceX, שניהם מנהלים עסקים משמעותיים עם ממשלת ארה”ב, לצד הבעלות שלו על xAI, החברה שפיתחה את Grok. אם DOGE משתמשת בגרסה מותאמת של Grok לניתוח נתוני ממשלה, היא מעלה את הספק שמאסק יכול לקבל גישה מועדפת למידע שיכול להועיל למיזמים האחרים שלו. זה יכול לכלול תובנות לגבי חוזים ממשלתיים, תהליכי רכש או מדיניות רגולטורית, ובכך להעניק לו יתרון תחרותי לא הוגן.
רגישות נתונים: איום מרחף
טיפול בנתונים ממשלתיים רגישים הינו בעל חשיבות עליונה. לכל גישה, שימוש או גילוי בלתי מורשים של נתונים כאלה עלולות להיות השלכות חמורות על יחידים, עסקים וביטחון לאומי. הטענה כי DOGE משתמשת ב-Grok לניתוח נתוני ממשלה ללא אישורים נאותים מעידה על זלזול פוטנציאלי בפרוטוקולי הגנת נתונים מבוססים.
נתונים ממשלתיים רגישים עשויים לכלול מגוון רחב של מידע, כגון נתונים אישיים, רשומות פיננסיות, מידע בריאותי ומודיעין מסווג. הניתוח הלא מורשה של נתונים כאלה עלול לחשוף אנשים לגניבת זהות, הונאה פיננסית או אפליה. יתר על כן, זה עלול לפגוע בביטחון הלאומי על ידי חשיפת פגיעויות בתשתית קריטית או במערכות הגנה.
ההשלכות הרחבות יותר לממשל AI
המחלוקת סביב השימוש הנטען ב-Grok על ידי DOGE מעלה גם שאלות רחבות יותר לגבי ממשל AI בממשלה. ככל שטכנולוגיות AI הופכות מתוחכמות ונפוצות יותר ויותר, חיוני לבסס הנחיות ותקנות ברורות כדי להבטיח שהן ישמשו בצורה אתית, אחראית ובהתאם לחוק.
שקיפות ואחריותיות
שקיפות חיונית לבניית אמון הציבור בשימוש ב-AI בממשלה. סוכנויות ממשלתיות צריכות להיות שקופות לגבי מערכות ה-AI שבהן הן משתמשות, הנתונים שהן אוספות וההחלטות שהן מקבלות. עליהן גם לתת דין וחשבון על הבטחת השימוש במערכות AI בצורה הוגנת, נטולת פניות ולא מפלה.
ניהול סיכונים
סוכנויות ממשלתיות צריכות לערוך הערכות סיכונים יסודיות לפני פריסת מערכות AI. הערכות אלו צריכות לזהות סיכונים פוטנציאליים לפרטיות, אבטחה וחירויות אזרחיות. עליהן גם לפתח אסטרטגיות להפחתת הסיכונים הללו.
פיקוח וביקורת
סוכנויות ממשלתיות צריכות להקים מנגנונים לפיקוח וביקורת של מערכות AI. מנגנונים אלו צריכים להבטיח שמערכות AI משמשות כמתוכנן ושהן אינן גורמות נזק בלתי מכוון.
הכשרה וחינוך
עובדי ממשלה המשתמשים במערכות AI צריכים לקבל הכשרה וחינוך נאותים. הדרכה זו צריכה לכסות את ההשלכות האתיות, המשפטיות והחברתיות של ה-AI. היא גם צריכה ללמד את העובדים כיצד להשתמש במערכות AI באחריות וביעילות.
תגובת המחלקה לביטחון המולדת
הדובר מטעם המחלקה לביטחון המולדת опроверг בתוקף את הטענות. בעוד המחלקה признала כי DOGE קיימת וממונה על זיהוי בזבוז, הונאה ושימוש לרעה, היא שמרה על כך ש-DOGE לא הפעילה לחץ על אף עובד להשתמש בכלים או מוצרים ספציפיים.
הצורך בחקירה עצמאית
בהתחשב בחומרת הטענות, חיוני שתיערך חקירה עצמאית כדי לקבוע את העובדות. חקירה זו צריכה לבחון את השימוש של DOGE ב-Grok, את הנתונים проанализировались ואת אמצעי ההגנה שננקטו כדי להגן על מידע רגיש. היא גם צריכה להעריך האם היה ניגוד עניינים או הפרה של חוק או מדיניות.
החקירה צריכה להתבצע על ידי גוף עצמאי בעל המומחיות והמשאבים לבצע בדיקה יסודית ובלתי משוחדת. ממצאי החקירה צריכים להתפרסם לציבור, ויש לנקוט בפעולה מתאימה כדי לטפל בכל עוולה.
חשיבות הטיפול בטענות
הטענות סביב השימוש בצ’אטבוט Grok מותאם אישית על ידי צוות ה-DOGE של אילון מאסק רציניות ומצדיקות בדיקה מדוקדקת. אם יתבררו כנכונות, עלולות להיות להן השלכות משמעותיות על פרטיות נתונים, ניגודי עניינים ופריסה אתית של AI בממשלה.
הגנה על פרטיות נתונים
הגנה על פרטיות נתונים חיונית לשמירה על אמון הציבור בממשלה. סוכנויות ממשלתיות צריכות להבטיח שהן אוספות, משתמשות ומאחסנות נתונים בהתאם לחוק ובהתאם לסטנדרטים האתיים הגבוהים ביותר. עליהן גם быть שקופות לגבי נוהלי הנתונים שלהן ולספק לאנשים את ההזדמנות לגשת ולתקן את הנתונים שלהם.
סוכנויות ממשלתיות צריכות ליישם אמצעי אבטחה חזקים כדי להגן על נתונים מפני גישה, שימוש או גילוי לא מורשים. אמצעים אלה צריכים לכלול אבטחה פיזית, אבטחה לוגית ואבטחה ניהולית.
הימנעות מניגודי עניינים
הימנעות מניגודי עניינים חיונית לשמירה על יושרה של הממשלה. פקידי ממשל צריכים להימנע מכל מצב שבו האינטרסים האישיים שלהם עלולים להתנגש עם חובותיהם הציבוריות. עליהם גם להימנע מכל החלטה שבה יש להם חלק אישי.
לסוכנויות ממשלתיות צריכות להיות מדיניות и נהלים כדי לזהות ולנהל ניגודי עניינים. מדיניות оти נהלים אלה צריכים להיות ברורים, מקיפים и נאכפים ביעילות.
הבטחת פריסת AI אתית
הבטחת פריסה אתית של AI חיונית לרתימת היתרונות שלה תוך צמצום הסיכונים שלה. סוכנויות ממשלתיות צריכות לפתח הנחיות אתיות לשימוש ב-AI. הנחיות оти должны להיות מבוססות על העקרונות של הוגנות, אחריותיות, שקיפות וכיבוד זכויות אדם.
סוכנויות ממשלתיות צריכות להשקיע גם במחקר и развой כדי לקדם את השימוש האתי ב-AI. מחקר זה צריך להתמקד בסוגיות כגון הטיה, אפליה и פרטיות.
מה дальше?
המחלוקת סביב השימוש הנטען ב-Grok על ידי DOGE מדגישה את הצורך במסגרת מקיפה לניהול AI בממשלה. מסגרת זו צריכה לטפל בסוגיות כגון פרטיות נתונים, ניגודי עניינים, פריסה אתית, שקיפות, אחריותיות, ניהול סיכונים, פיקוח, ביקורת, הכשרה וחינוך. Она должна לשמש בסיס להבטחת השימוש в AI באופן העולה בקנה אחד עם הערכים и принципите חברה דמוкраטית.