רשת תעמולה רוסית מחמשת צ'אטבוטים של AI בדיסאינפורמציה

המכניקה של ‘טיפוח LLM’

רשת Pravda פועלת באמצעות רשת עצומה של כ-150 אתרי חדשות מזויפים. אתרים אלה, לעומת זאת, אינם מיועדים לצריכה אנושית. עם תעבורה מינימלית – רוב הדפים מקבלים פחות מ-1,000 מבקרים חודשיים – מטרתם העיקרית היא להזין תוכן למערכות AI. אסטרטגיה זו מייצגת גישה חדשה לדיסאינפורמציה, תוך מעבר משיטות מסורתיות המכוונות ישירות לקוראים אנושיים.

טקטיקה זו ידועה בשם “LLM grooming“, מונח המתאר מניפולציה מכוונת של נתוני אימון AI. הרשת משיגה זאת על ידי פרסום המוני של תוכן שעבר אופטימיזציה משמעותית עבור מנועי חיפוש (SEO). זה מבטיח שהתעמולה תיקלט ותופץ בקלות על ידי מודלים של AI, תשפיע על התפוקות שלהם ועלולה לעצב את תפיסת הציבור.

John Mark Dougan, אמריקאי המתגורר במוסקבה ומזוהה על ידי NewsGuard כמי שתומך לכאורה בקמפיינים של דיסאינפורמציה רוסית, הסביר את העיקרון הבסיסי בכנס מקומי: “ככל שהמידע הזה מגוון יותר, כך הוא משפיע יותר על האימון ועל ה-AI העתידי.” הצהרה זו מדגישה את האופי החתרני של המבצע, שמטרתו להשחית בעדינות את נתוני הבסיס שעליהם בנויות מערכות AI.

קנה המידה וההיקף של המבצע

קנה המידה של פעילות רשת Pravda הוא מדהים. בשנת 2024 לבדה, אתרים אלה פרסמו כ-3.6 מיליון מאמרים ב-49 מדינות. שמות דומיין נבחרים באופן אסטרטגי כדי לחקות מקורות חדשות לגיטימיים, עם דוגמאות הכוללות NATO.News-Pravda.com, Trump.News-Pravda.com ו- Macron.News-Pravda.com. חיקוי זה מוסיף שכבה של הונאה, ומקשה על משקיפים מזדמנים להבחין בין תוכן אותנטי למפוברק.

התוכן עצמו משתרע על פני מגוון רחב של נושאים, אך מקדם באופן עקבי נרטיבים פרו-רוסיים ומערער על נקודות מבט מערביות. הרשת פעילה לפחות מאפריל 2022, והניתוח של NewsGuard התמקד ב-15 סיפורים שקריים שניתנים לאימות שהופצו על ידי רשת Pravda בין אותו זמן לפברואר 2025.

פגיעותם של צ’אטבוטים של AI

החקירה של NewsGuard כללה בדיקה של מספר צ’אטבוטים בולטים של AI כדי להעריך את פגיעותם לדיסאינפורמציה של רשת Pravda. המערכות שנבדקו כללו:

  • OpenAI’s ChatGPT-4o
  • You.com’s Smart Assistant
  • xAI’s Grok
  • Inflection’s Pi
  • Mistral’s le Chat
  • Microsoft’s Copilot
  • Meta AI
  • Anthropic’s Claude
  • Google’s Gemini
  • Perplexity

התוצאות היו מדאיגות. הצ’אטבוטים של AI קיבלו נרטיבים שקריים מרשת Pravda ב-33.5% מהמקרים. בעוד שהמערכות זיהו נכון את התוכן הרוסי כדיסאינפורמציה ב-48.2% מהמקרים, הן ציטטו לעתים את המקורות המטעים, מה שעלול להעניק להם אמינות בלתי מוצדקת. 18.2% הנותרים מהתגובות לא היו חד משמעיים, מה שמדגיש עוד יותר את האתגרים בזיהוי אמת משקר בעידן של תוכן שנוצר על ידי AI.

האתגר במאבק בדיסאינפורמציה המונעת על ידי AI

המאבק בסוג זה של מניפולציה מציב אתגר משמעותי. שיטות מסורתיות של חסימת אתרי דיסאינפורמציה ידועים מתגלות כלא יעילות. כאשר הרשויות חוסמות דומיינים של Pravda, צצים במהירות דומיינים חדשים, מה שמדגים את הזריזות והעמידות של הרשת.

יתר על כן, הדיסאינפורמציה זורמת בערוצים מרובים בו זמנית, לעתים קרובות כאשר אתרי רשת שונים מקיאים זה את התוכן של זה. זה יוצר רשת מורכבת של מקורות מקושרים, מה שמקשה על בידוד ונטרול התעמולה בשורשה. חסימת אתרים פשוטה מציעה הגנה מוגבלת מפני הקמפיין הרחב והמתואם יותר.

ההקשר הרחב יותר: מניפולציה של AI בחסות המדינה

פעילות רשת Pravda אינן אירועים מבודדים. הן תואמות דפוס רחב יותר של מאמצים בחסות המדינה למנף AI למטרות דיסאינפורמציה. מחקר שנערך לאחרונה על ידי OpenAI חשף ששחקנים בחסות המדינה מרוסיה, סין, איראן וישראל כבר ניסו להשתמש במערכות AI לקמפיינים של תעמולה. מבצעים אלה משלבים לעתים קרובות תוכן שנוצר על ידי AI עם חומרים מסורתיים שנוצרו באופן ידני, ומטשטשים את הגבולות בין מידע אותנטי למניפולטיבי.

השימוש ב-AI במניפולציה פוליטית אינו מוגבל לשחקני מדינה. קבוצות פוליטיות, כמו מפלגת הימין הקיצוני AFD בגרמניה, נצפו גם הן משתמשות במודלים של תמונות AI למטרות תעמולה. אפילו דמויות כמו דונלד טראמפ עסקו בתוכן שנוצר על ידי AI, הן כצרכן והן, באופן פרדוקסלי, על ידי תיוג מידע אמיתי כזיופים שנוצרו על ידי AI. טקטיקה זו, המזוהה כסוג של תעמולה נגדית, זורעת חוסר אמון בכל המידע המקוון, ועלולה להניע אנשים להסתמך אך ורק על דמויות מהימנות, ללא קשר לדיוק העובדתי.

אפילו העיצוב של מודלים של AI עצמם יכול להיות מושפע מסדר היום של המדינה. מודלים סיניים של AI, למשל, נמצאו כשהם מגיעים טעונים מראש בצנזורה ובתעמולה, המשקפים את סדרי העדיפויות הפוליטיים של ממשלת סין.

צלילה עמוקה: דוגמאות ספציפיות לנרטיבים שקריים

בעוד שהדו”ח של NewsGuard אינו מפרט כל נרטיב שקרי שהופץ על ידי רשת Pravda, המתודולוגיה של שימוש בסיפורים שקריים שניתנים לאימות מצביעה על דפוס של הפצת מידע מוטעה שנועד:

  1. לערער על מוסדות מערביים: סיפורים עשויים לתאר באופן שקרי את נאט”ו כאגרסיבי או לא יציב, או לפברק שערוריות הקשורות למנהיגים מערביים.
  2. לקדם סנטימנט פרו-רוסי: נרטיבים עשויים להגזים בהצלחות הצבאיות של רוסיה, להמעיט בהפרות זכויות האדם שלה, או להצדיק את פעולותיה בזירה העולמית.
  3. לזרוע מחלוקת ופילוג: תוכן עשוי לכוון להחריף מתחים חברתיים ופוליטיים קיימים בתוך מדינות מערביות, להגביר סוגיות מפלגות ולקדם קיטוב.
  4. לעוות את המציאות סביב אירועים ספציפיים: מידע שקרי עלול להיות מופץ על אירועים כמו בחירות, סכסוכים או תקריות בינלאומיות, תוך עיוות הנרטיב כדי להעדיף פרשנות פרו-רוסית.

החוט המקשר העקבי הוא מניפולציה של מידע כדי לשרת אג’נדה גיאופוליטית ספציפית. השימוש ב-AI מגביר את הטווח וההשפעה הפוטנציאלית של נרטיבים אלה, ומקשה על זיהויים ועל המאבק בהם.

ההשלכות ארוכות הטווח

ההשלכות של דיסאינפורמציה זו המונעת על ידי AI הן מרחיקות לכת. שחיקת האמון במקורות מידע, הפוטנציאל למניפולציה של דעת הקהל וערעור היציבות של תהליכים דמוקרטיים הם כולם חששות רציניים. ככל שמערכות AI הופכות משולבות יותר ויותר בחיי היומיום שלנו, היכולת להבחין בין אמת לשקר הופכת קריטית יותר ויותר.

טכניקת “LLM grooming” מייצגת הסלמה משמעותית בנוף לוחמת המידע. היא מדגישה את פגיעותן של מערכות AI למניפולציה ואת הצורך בהגנות חזקות מפני איום מתפתח זה. האתגר טמון לא רק בזיהוי ובחסימה של מקורות דיסאינפורמציה, אלא גם בפיתוח אסטרטגיות לחיסון מודלים של AI מפני צורות השפעה עדינות אך נרחבות אלה. זה דורש גישה רב-גונית, הכוללת:

  • אוריינות AI משופרת: חינוך הציבור לגבי הפוטנציאל לדיסאינפורמציה שנוצרה על ידי AI וקידום מיומנויות חשיבה ביקורתית.
  • כלי זיהוי AI משופרים: פיתוח שיטות מתוחכמות יותר לזיהוי ותיוג של תוכן שנוצר על ידי AI ודיסאינפורמציה.
  • נתוני אימון AI מחוזקים: יישום אמצעים להבטחת שלמותם ומגווןם של נתוני אימון AI, מה שהופך אותם לעמידים יותר בפני מניפולציות.
  • שיתוף פעולה בינלאומי: טיפוח שיתוף פעולה בין ממשלות, חברות טכנולוגיה וחוקרים כדי להתמודד עם אתגר גלובלי זה.
  • שקיפות מוגברת: מפתחי AI צריכים להיות שקופים לגבי נתוני האימון שבהם נעשה שימוש וההטיות הפוטנציאליות שעשויות להתקיים במודלים שלהם.
  • אחריות אלגוריתמית: הטלת אחריות על מפתחי AI על התפוקות של המערכות שלהם, במיוחד כאשר תפוקות אלה משמשות להפצת דיסאינפורמציה.

המאבק בדיסאינפורמציה המונעת על ידי AI הוא מורכב ומתפתח. הוא דורש מאמץ משותף של יחידים, ארגונים וממשלות כדי לשמור על שלמות המידע ולהגן על יסודות קבלת ההחלטות המושכלת. פעילות רשת Pravda משמשת תזכורת חריפה לסיכונים הכרוכים בכך ולדחיפות הטיפול באיום הולך וגובר זה. עתידו של השיח הציבורי המושכל, ואולי יציבותן של חברות דמוקרטיות, עשוי להיות תלוי ביכולתנו להתמודד בהצלחה עם צורה חדשה זו של מניפולציה. האתגר אינו רק טכנולוגי; הוא גם חברתי, ודורש מחויבות מחודשת לאמת, דיוק וחשיבה ביקורתית בעידן הדיגיטלי.