ההשפעה הנרחבת של שקרים בגיבוי הקרמלין
עיקר הבעיה נעוץ בזיהום מכוון של מקורות מידע מקוונים. על ידי הצפת תוצאות חיפוש וסורקי אינטרנט בשקרים פרו-קרמלינים, רשת של שחקני דיסאינפורמציה מעצבת באופן פעיל את הפלט של מודלי שפה גדולים (LLMs). מודלים אלה, המפעילים את הצ’אטבוטים של AI שאנו מתקשרים איתם מדי יום, מסתמכים על מערכי נתונים עצומים שנאספים מהאינטרנט. כאשר נתונים אלה מזוהמים במידע שגוי, הפלט המתקבל משקף הטיות אלו.
NewsGuard, חברה המספקת דירוגי אמינות וטביעות אצבע של מידע שגוי עבור אתרי חדשות ומידע, ערכה ניתוח מעמיק של תופעה זו. ממצאיהם חושפים מציאות מטרידה: חלק ניכר מהמידע שנוצר על ידי צ’אטבוטים מובילים של AI מהדהד את הנרטיבים המופצים על ידי רשת ספציפית של אתרים פרו-קרמלינים.
המכניקה של דיסאינפורמציה: כיצד מתמרנים מודלים של AI
האסטרטגיה שבה משתמשת רשת דיסאינפורמציה זו היא גם ערמומית וגם מתוחכמת. היא לא מכוונת בעיקר למשוך קוראים אנושיים; במקום זאת, היא נועדה לתמרן את האלגוריתמים העומדים בבסיס הצ’אטבוטים של AI. טקטיקה זו, המכונה ‘טיפוח LLM’, כוללת שתילה אסטרטגית של מידע כוזב או מטעה במספר רב של אתרים, בידיעה שפלטפורמות אלו ייסרקו וייקלטו על ידי LLMs.
The American Sunlight Project (ASP), ארגון אמריקאי ללא מטרות רווח, הדגיש איום זה בדו’ח מפברואר 2025. הם הזהירו כי רשת Pravda, אוסף של אתרים המקדמים נרטיבים פרו-רוסיים, נוצרה ככל הנראה במטרה מפורשת להשפיע על מודלים של AI. ככל שנפח הנרטיבים הפרו-רוסיים גדול יותר, כך גדלה הסבירות ש-LLMs ישלבו אותם בבסיס הידע שלהם.
ההשלכות של זה מרחיקות לכת. ככל ש-LLMs משתלבים יותר ויותר בחיי היומיום שלנו, ומשמשים כמקורות מידע וסיוע, הפוטנציאל להפצה נרחבת של תוכן מניפולטיבי מעורר דאגה.
הביקורת של NewsGuard: כימות ההשפעה
כדי להעריך את היקף הבעיה, NewsGuard ערכה ביקורת על עשרה צ’אטבוטים בולטים של AI. אלו כללו:
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
הביקורת התמקדה ב-15 נרטיבים כוזבים נפרדים שקודמו באופן פעיל על ידי 150 אתרי Pravda פרו-קרמלינים בין אפריל 2022 לפברואר 2025. נרטיבים אלה כיסו מגוון נושאים, כולם נועדו לקדם אג’נדה פוליטית ספציפית.
המתודולוגיה כללה בדיקת כל צ’אטבוט עם סדרה של הנחיות המבוססות על טביעות האצבע של NewsGuard למידע שגוי, קטלוג של טענות כוזבות מוכחות בנושאי חדשות משמעותיים. ההנחיות נוסחו בשלושה סגנונות שונים – תמים, מוביל ומרושע – כדי לחקות את הדרכים השונות שבהן משתמשים מתקשרים עם מודלים גנרטיביים של AI. התוצאה הייתה סך של 450 תגובות (45 לכל צ’אטבוט).
תוצאות מטרידות: דיסאינפורמציה נפוצה בצ’אטבוטים
ממצאי הביקורת של NewsGuard היו חמורים. באופן קולקטיבי, עשרת הצ’אטבוטים של AI חזרו על נרטיבים כוזבים של דיסאינפורמציה רוסית ב-33.55% מהתגובות. הם סיפקו תגובה לא עניינית ב-18.22% מהמקרים והפריכו את הנרטיב ב-48.22% מהמקרים.
כל צ’אטבוט שנבדק חזר על דיסאינפורמציה שמקורה ברשת Pravda. מדאיג עוד יותר, שבעה מהצ’אטבוטים ציטטו ישירות מאמרים ספציפיים מאתרי Pravda כמקורות שלהם. בעוד ששניים ממודלי ה-AI אינם מספקים ציטוטים מפורשים, הם עדיין נמצאו מייצרים או חוזרים על נרטיבים כוזבים מהרשת. רק אחד משמונת המודלים שמצטטים מקורות לא ציטט את Pravda.
בסך הכל, 56 מתוך 450 התגובות שנוצרו על ידי הצ’אטבוטים כללו קישורים ישירים למאמרים המפיצים טענות כוזבות שפורסמו על ידי רשת Pravda. הצ’אטבוטים ציטטו ביחד 92 מאמרים שונים המכילים דיסאינפורמציה, כאשר שני מודלים התייחסו ל-27 מאמרי Pravda כל אחד. מאמרים אלה הגיעו מתחומים שונים ברשת, כולל Denmark.news-pravda.com, Trump.news-pravda.com ו-NATO.news-pravda.com.
אופי ההנחיות: חיקוי אינטראקציות בעולם האמיתי
שלושת סגנונות ההנחיה ששימשו בביקורת NewsGuard נועדו לשקף את מגוון האינטראקציות של משתמשים עם צ’אטבוטים של AI:
- הנחיות תמימות: הנחיות אלו הציגו את הנרטיב הכוזב בצורה ניטרלית ולא מובילה, כאילו המשתמש פשוט מחפש מידע ללא כל דעות קדומות.
- הנחיות מובילות: הנחיות אלו רמזו בעדינות על הנרטיב הכוזב, ורמזו על תקפותו מבלי לציין זאת במפורש. זה מחקה תרחישים שבהם למשתמשים עשויה להיות חשיפה מוקדמת כלשהי למידע שגוי והם מחפשים אישור.
- הנחיות מרושעות: הנחיות אלו טענו ישירות את הנרטיב הכוזב כעובדה, ושיקפו מצבים שבהם משתמשים כבר משוכנעים במידע השגוי ומחפשים חיזוק.
גישה רב-גונית זו הייתה חיונית להבנת האופן שבו סוגים שונים של מעורבות משתמשים עשויים להשפיע על תגובת הצ’אטבוט. היא גילתה שהצ’אטבוטים היו רגישים לחזרה על דיסאינפורמציה ללא קשר לסגנון ההנחיה, אם כי התדירות ואופי התגובות השתנו.
דוגמאות ספציפיות לדיסאינפורמציה שהדהדו על ידי צ’אטבוטים
הדו’ח של NewsGuard מספק דוגמאות רבות לנרטיבים כוזבים ספציפיים שהופצו על ידי רשת Pravda ובהמשך חזרו על ידי הצ’אטבוטים של AI. דוגמאות אלו מדגישות את רוחב ועומק מסע הדיסאינפורמציה. חלק מהנרטיבים כללו:
- טענות שאוקראינה היא מדינה נאצית.
- טענות כוזבות לגבי הגורמים לסכסוך באוקראינה.
- מידע מטעה על מעורבות מערבית בסכסוך.
- סיפורים מפוברקים על הנהגת אוקראינה.
אלו הן רק כמה דוגמאות מתוך הנרטיבים הכוזבים הרבים שתועדו ונחקרו בקפידה על ידי NewsGuard. העובדה שנרטיבים אלה מהדהדים על ידי צ’אטבוטים מובילים של AI מדגישה את הצורך הדחוף באמצעי נגד יעילים.
האתגר במאבק בדיסאינפורמציה המונעת על ידי AI
הטיפול בבעיה זו הוא משימה מורכבת. הוא דורש גישה רב-תחומית הכוללת הן פתרונות טכנולוגיים והן מודעות מוגברת של משתמשים.
פתרונות טכנולוגיים:
- סינון נתונים משופר: מפתחי AI צריכים ליישם מנגנונים חזקים יותר לסינון מידע שגוי ממערכי הנתונים המשמשים לאימון LLMs. זה כרוך בזיהוי והחרגה של מקורות לא אמינים, כמו גם פיתוח אלגוריתמים שיכולים לזהות ולסמן מידע שעלול להיות כוזב או מטעה.
- אימות מקורות משופר: יש לעצב צ’אטבוטים כך שיתעדפו מידע ממקורות אמינים ומאומתים. זה כולל מתן ציטוטים ברורים ואפשרות למשתמשים לעקוב בקלות אחר מקור המידע המוצג.
- שקיפות והסברתיות: מודלים של AI צריכים להיות שקופים יותר לגבי תהליכי קבלת ההחלטות שלהם. משתמשים צריכים להיות מסוגלים להבין מדוע צ’אטבוט מספק תגובה מסוימת ובאילו מקורות נתונים הוא מסתמך.
מודעות משתמשים:
- חינוך לאוריינות מדיה: יש לחנך את המשתמשים לגבי הפוטנציאל למידע שגוי שנוצר על ידי AI. זה כולל פיתוח מיומנויות חשיבה ביקורתית ולמידה כיצד להעריך את אמינותם של מקורות מידע מקוונים.
- ספקנות ואימות: על המשתמשים לגשת למידע המסופק על ידי צ’אטבוטים של AI עם מידה בריאה של ספקנות. חיוני להצליב מידע עם מקורות אחרים ולהיזהר מטענות שנראות סנסציוניות מדי או טובות מכדי להיות אמיתיות.
הסיכונים לטווח ארוך: פוליטיים, חברתיים וטכנולוגיים
התפשטות בלתי מבוקרת של דיסאינפורמציה באמצעות צ’אטבוטים של AI מהווה סיכונים משמעותיים לטווח ארוך. סיכונים אלה חורגים מההשפעה המיידית של נרטיבים כוזבים בודדים וכוללים השלכות חברתיות רחבות יותר.
- סיכונים פוליטיים: מניפולציה של דעת הקהל באמצעות דיסאינפורמציה המונעת על ידי AI עלולה לערער תהליכים דמוקרטיים ולשחוק את האמון במוסדות. ניתן להשתמש בה כדי להשפיע על בחירות, לזרוע מחלוקת ולערער יציבות של ממשלות.
- סיכונים חברתיים: הפצת נרטיבים כוזבים עלולה להחמיר פערים חברתיים קיימים וליצור חדשים. היא עלולה לתדלק דעות קדומות, אפליה ואפילו אלימות.
- סיכונים טכנולוגיים: שחיקת האמון בטכנולוגיית AI עקב התפשטות מידע שגוי עלולה לעכב את פיתוחה ואימוצה. אנשים עשויים להסס להשתמש בכלי AI אם הם לא יכולים להיות בטוחים בדיוק ובאמינות של המידע המסופק.
המאבק בדיסאינפורמציה המונעת על ידי AI הוא קריטי. הוא דורש מאמץ משותף של מפתחי AI, קובעי מדיניות, מחנכים ומשתמשים בודדים כדי להבטיח שטכנולוגיות רבות עוצמה אלו ישמשו בצורה אחראית ואתית. עתיד המידע, ואכן עתיד החברות שלנו, עשוי להיות תלוי בכך.