עליית הבינה המלאכותית באימות מידע
עליית הבינה המלאכותית הביאה עימה שפע של כלים שנועדו לייעל את הגישה למידע. עם זאת, התקדמות טכנולוגית זו הציגה גם אתגרים חדשים, במיוחד בתחום המידע המוטעה. בפלטפורמת המדיה החברתית X של אילון מאסק, התגלתה מגמה מדאיגה: משתמשים פונים יותר ויותר לבוט הבינה המלאכותית של מאסק, Grok, למטרות בדיקת עובדות. התפתחות זו שלחה גלי אזעקה בקהילת בדיקת העובדות האנושית, והעלתה חששות לגבי הפצה פוטנציאלית רחבה של מידע כוזב או מטעה.
שילוב AI בפלטפורמות מדיה חברתית אינו חדש. המהלך של X לאפשר למשתמשים ליצור אינטראקציה עם Grok של xAI הוא, במובנים מסוימים, פשוט מעקב אחר מגמה. זה משקף את הגישה של Perplexity, שמפעילה חשבון אוטומטי ב-X כדי להציע חוויה דומה.
לאחר ש-xAI הקימה את הנוכחות האוטומטית של Grok ב-X, משתמשים החלו במהירות לחקור את יכולותיו, להציג שאלות ולחפש תשובות. באזורים כמו הודו, התגלה דפוס מטריד במיוחד: אנשים החלו להשתמש ב-Grok כדי לאמת הערות ושאילתות, שרבות מהן כוונו לאידיאולוגיות פוליטיות ספציפיות.
החששות של בודקי עובדות אנושיים
ההסתמכות על Grok, ולמעשה על כל עוזר AI מסוגו, לבדיקת עובדות היא סיבה לדאגה רצינית. עצם טבעם של בוטים אלה של AI הוא שהם יכולים לנסח תגובות שנשמעות משכנעות, ללא קשר לדיוק העובדתי שלהן. זו אינה דאגה תיאורטית; ל-Grok יש היסטוריה מתועדת של הפצת חדשות מזויפות ומידע מוטעה.
מקרה בולט אחד התרחש, כאשר כמה מזכירי מדינה הפצירו במאסק לבצע שינויים מכריעים ב-Grok. בקשה דחופה זו הגיעה בעקבות הופעת מידע מטעה, שנוצר על ידי עוזר הבינה המלאכותית, ברשתות חברתיות, והעלתה פעמוני אזעקה לקראת הבחירות.
Grok אינו לבד בעניין זה. צ’אטבוטים בולטים אחרים, כולל ChatGPT של OpenAI ו-Gemini של גוגל, נמצאו גם הם מייצרים מידע לא מדויק הקשור לבחירות. חוקרי דיסאינפורמציה הדגישו עוד יותר את הפוטנציאל לשימוש לרעה, וחשפו בשנת 2023 שניתן לנצל בקלות צ’אטבוטים של AI כמו ChatGPT כדי ליצור טקסטים משכנעים המכילים נרטיבים מטעים.
אשליית האותנטיות
אנג’י הולאן, מנהלת International Fact-Checking Network (IFCN) ב-Poynter, ניסחה את הנושא המרכזי ואמרה, “עוזרי AI, כמו Grok, הם ממש טובים בשימוש בשפה טבעית ונותנים תשובה שנשמעת כאילו בן אדם אמר אותה. ובדרך זו, למוצרי AI יש את הטענה הזו על טבעיות ותגובות שנשמעות אותנטיות, גם כשהן עשויות להיות שגויות מאוד. זו תהיה הסכנה כאן.”
הסכנה, כפי שמדגישה הולאן, טמונה במראה האותנטיות המטעה. היכולת של AI לחקות שפה אנושית יוצרת אשליה של אמינות, גם כאשר המידע הבסיסי פגום או מפוברק לחלוטין.
ההבדל המהותי: AI לעומת בודקי עובדות אנושיים
הניגוד בין עוזרי AI לבין בודקי עובדות אנושיים הוא בולט. בודקי עובדות אנושיים מאמתים מידע בקפדנות, תוך הסתמכות על מקורות מרובים ואמינים. הם פועלים בשקיפות, מצרפים את שמותיהם ואת שיוכם הארגוני לממצאיהם, ובכך מבטיחים אחריות ומחזקים את האמינות.
פראטיק סינהא, מייסד שותף של אתר בדיקת העובדות ללא מטרות רווח Alt News בהודו, ציין כי בעוד שתגובותיו של Grok עשויות להיראות משכנעות כרגע, הדיוק שלו מוגבל באופן מהותי על ידי הנתונים שהוא מקבל. “מי יחליט אילו נתונים יסופקו לו, ושם תבוא לידי ביטוי התערבות ממשלתית וכו’”, ציין, והדגיש את הנושא הקריטי של שקיפות מקור הנתונים.
חוסר השקיפות, הדגיש סינהא, הוא כר פורה לנזק פוטנציאלי. “כל דבר שחסר שקיפות יגרום נזק כי כל דבר שחסר שקיפות ניתן לעצב בכל דרך שהיא.”
הודאתו של Grok: הפוטנציאל לשימוש לרעה
באירוניה מסוימת, חשבון Grok ב-X, באחת מתגובותיו שפורסמו, הודה כי “ניתן להשתמש בו לרעה - כדי להפיץ מידע מוטעה ולפגוע בפרטיות.”
למרות הודאה זו, החשבון האוטומטי אינו מספק כל הסתייגות למשתמשים המקבלים את תשובותיו. השמטה זו מותירה את המשתמשים חשופים למידע מוטעה, במיוחד במקרים שבהם הבינה המלאכותית “הזתה” את התשובה, תופעה מתועדת היטב בתחום הבינה המלאכותית שבה המערכת מייצרת מידע כוזב או חסר היגיון.
אנושקה ג’יין, עמיתת מחקר ב-Digital Futures Lab, פירטה נקודה זו ואמרה, “הוא עשוי להמציא מידע כדי לספק תגובה.” נטייה זו לפברק מידע מדגישה את המגבלות המובנות של AI בהקשר של בדיקת עובדות.
דילמת נתוני האימון
שכבה נוספת של מורכבות נובעת משאלת נתוני האימון של Grok. קיימת אי ודאות סביב המידה שבה Grok משתמש בפוסטים ב-X כחומר אימון, ואמצעי בקרת האיכות, אם בכלל, המופעלים כדי לבדוק עובדות של פוסטים כאלה. שינוי שיושם בעבר נראה כמעניק ל-Grok גישה כברירת מחדל לנתוני משתמשי X, מה שמעלה חששות לגבי הפוטנציאל של הבינה המלאכותית לספוג ולהפיץ מידע מוטעה הקיים בפלטפורמה.
צריכה ציבורית לעומת פרטית של מידע שנוצר על ידי AI
דאגה משמעותית נוספת סובבת סביב האופי הציבורי של עוזרי AI כמו Grok בפלטפורמות מדיה חברתית. בניגוד לאינטראקציות עם צ’אטבוטים כמו ChatGPT, המתרחשות בדרך כלל בסביבה פרטית, התגובות של Grok מועברות בפומבי.
הפצה פומבית זו יוצרת מצב שבו, גם אם משתמש אחד מודע לכך שהמידע שמספק ה-AI עשוי להיות לא מדויק, משתמשים אחרים בפלטפורמה עשויים עדיין לקבל אותו כאמת. זה יכול להוביל להשלכות חברתיות חמורות.
קיימות תקדימים היסטוריים. הודו, למשל, הייתה עדה למקרים טרגיים של לינץ’ המונים שניזונו ממידע מוטעה שהופץ באמצעות WhatsApp. אירועים אלה, בעודם קודמים לזמינות הנרחבת של Generative AI, משמשים תזכורת חריפה לסכנות בעולם האמיתי של מידע מוטעה בלתי מבוקר. הופעתה של GenAI, עם יכולתה ליצור תוכן סינתטי שנראה מציאותי להפליא, רק הגבירה את הסיכונים הללו.
שיעור השגיאות של AI
הולאן מ-IFCN הזהירה כי, “אם אתה רואה הרבה מתשובות Grok האלה, אתה תגיד, היי, טוב, רובן נכונות, וזה אולי נכון, אבל יהיו כמה שיהיו שגויות. וכמה? זה לא חלק קטן. כמה ממחקרי המחקר הראו שמודלים של AI כפופים לשיעורי שגיאה של 20%… וכשזה משתבש, זה יכול להשתבש ממש עם השלכות בעולם האמיתי.”
שיעור השגיאות של 20%, כפי שהודגש על ידי הולאן, הוא נתון משמעותי. הוא מדגיש את חוסר האמינות המובנה של AI במצבים הדורשים דיוק עובדתי. וכפי שהיא מדגישה, ההשלכות של טעויות אלו יכולות להיות עמוקות, ולהתרחב הרבה מעבר לתחום הדיגיטלי.
AI: כלי, לא תחליף לשיקול דעת אנושי
בעוד שחברות AI, כולל xAI, משכללות ללא הרף את המודלים שלהן כדי להשיג תקשורת דמוית אנוש יותר, המציאות הבסיסית נותרה: AI אינו יכול, ואינו צריך, להחליף שיקול דעת אנושי, במיוחד בתחום הקריטי של בדיקת עובדות.
המגמה בקרב חברות טכנולוגיה לחקור דרכים להפחתת ההסתמכות על בודקי עובדות אנושיים היא סיבה לדאגה. פלטפורמות כמו X ו-Meta אימצו את הרעיון של בדיקת עובדות במיקור המונים, כפי שמודגם על ידי יוזמות כמו ‘Community Notes’. שינויים אלה, בעודם עשויים להציע יתרונות מסוימים, מעלים גם שאלות לגבי השחיקה הפוטנציאלית של תקני בדיקת עובדות קפדניים.
תנועת מטוטלת חזרה לבדיקת עובדות אנושית?
סינהא מ-Alt News הביע השקפה אופטימית, והציע שאנשים ילמדו בסופו של דבר להבחין בין התפוקות של מכונות לבין עבודתם של בודקי עובדות אנושיים, ובסופו של דבר יעריכו את הדיוק והאמינות של האחרונים.
“אנחנו הולכים לראות את המטוטלת מתנדנדת חזרה בסופו של דבר לכיוון יותר בדיקת עובדות,” חזתה הולאן מ-IFCN.
עם זאת, היא הזהירה כי בינתיים, בודקי עובדות צפויים להתמודד עם עומס עבודה מוגבר עקב ההתפשטות המהירה של מידע שנוצר על ידי AI. האתגר יהיה להתמודד ביעילות עם גאות המידע המוטעה, ולהבטיח שהציבור יישאר מעודכן על ידי האמת, ולא על ידי אשליות משכנעות.
השאלה המרכזית: האם אכפת לך מהאמת?
בלב העניין טמונה שאלה בסיסית: “האם באמת אכפת לך ממה שנכון בפועל אולא? האם אתה פשוט מחפש את הציפוי של משהו שנשמע ומרגיש נכון מבלי להיות נכון בפועל? כי זה מה שעוזר AI יביא לך,” אמרה הולאן.
שאלה זו מגלמת את הדילמה הקריטית שמציבה עליית הבינה המלאכותית בהפצת מידע. האם אנו, כחברה, מוכנים לתעדף נוחות ומראה של אמת על פני התהליך המייגע של אימות עובדות? התשובה לשאלה זו תעצב בסופו של דבר את עתיד המידע, ותקבע אם ניכנע לעולם של מציאויות מפוברקות או נשמור על עקרונות האמת והדיוק.