הבעיה של ציטוטים לא מדויקים
מחקר שנערך לאחרונה חשף ליקוי משמעותי בדור הנוכחי של כלי חיפוש AI גנרטיביים: לעיתים קרובות הם אינם מספקים ציטוטים מדויקים למאמרי חדשות. מגבלה זו משמשת תזכורת מכרעת לגבולותיהן של טכנולוגיות אלו המתפתחות במהירות, במיוחד כאשר פלטפורמות מדיה חברתית משלבות אותן יותר ויותר בחוויות המשתמש.
המחקר נערך על ידי Tow Center for Digital Journalism, וממצאיו מדאיגים. המחקר מצביע על כך שרוב מנועי החיפוש הבולטים של AI מתקשים לצטט נכון מאמרי חדשות. הכלים ממציאים לעתים קרובות קישורי הפניה או פשוט אינם יכולים לספק תשובה כאשר נשאלים על מקור.
המחקר הציג באופן ויזואלי את הביצועים של צ’אטבוטים שונים של AI בתרשים, וחשף חוסר אמינות כללי במתן ציטוטים רלוונטיים. יש לציין, הצ’אטבוט Grok של xAI, שאילון מאסק קידם כ-‘AI האמיתי ביותר’, היה בין המשאבים הכי פחות מדויקים או אמינים בהקשר זה.
הדו”ח קבע:
“בסך הכל, הצ’אטבוטים סיפקו תשובות שגויות ליותר מ-60% מהשאילתות. בפלטפורמות שונות, רמת אי הדיוק השתנתה, כאשר Perplexity ענתה על 37% מהשאילתות באופן שגוי, בעוד של-Grok היה שיעור שגיאות גבוה בהרבה, וענה על 94% מהשאילתות באופן שגוי.”
זה מדגיש פער משמעותי ברמות הדיוק של כלי AI שונים, כאשר חלקם מציגים ביצועים גרועים משמעותית מאחרים.
גישה לתוכן מוגבל
היבט מדאיג נוסף שנחשף על ידי הדו”ח מתייחס ליכולתם של כלי AI לגשת ולספק מידע ממקורות שיישמו אמצעים למניעת גירוד AI (AI scraping).
הדו”ח ציין:
“במקרים מסוימים, הצ’אטבוטים ענו באופן שגוי או סירבו לענות על שאילתות ממפרסמים שאפשרו להם לגשת לתוכן שלהם. מצד שני, לפעמים הם ענו נכון על שאילתות לגבי מפרסמים שלתוכן שלהם לא אמורה להיות להם גישה.”
תצפית זו מצביעה על כך שספקי AI מסוימים עשויים שלא לכבד את פקודות robots.txt שנועדו לחסום אותם מגישה לחומר המוגן בזכויות יוצרים. זה מעלה שאלות לגבי ההשלכות האתיות והמשפטיות של כלי AI העוקפים מגבלות אלו.
ההסתמכות הגוברת על AI למחקר
הבעיה המרכזית נעוצה בהסתמכות הגוברת על כלי AI כמנועי חיפוש, במיוחד בקרב משתמשים צעירים. צעירים רבים גדלים כעת עם ChatGPT ככלי המחקר העיקרי שלהם. מגמה זו מדאיגה, בהתחשב בחוסר האמינות המוכח של כלי AI במתן מידע מדויק ובחינוך אמין של משתמשים בנושאים מרכזיים.
ממצאי המחקר משמשים תזכורת חריפה לכך שתגובות שנוצרו על ידי AI אינן תמיד בעלות ערך או אפילו שמישות. הסכנה האמיתית טמונה בקידום כלים אלה כתחליפים למחקר אמיתי וכקיצורי דרך לידע. עבור משתמשים צעירים במיוחד, הדבר עלול להוביל לדור של אנשים שהם פחות מיודעים, פחות מצוידים, ותלויים יתר על המידה במערכות שעלולות להיות פגומות.
AI ככלי, לא כפתרון
מארק קיובן, איש עסקים ידוע, סיכם ביעילות את האתגר הזה במהלך מפגש ב-SXSW. הוא הדגיש:
“AI הוא אף פעם לא התשובה. AI הוא הכלי. לא משנה אילו כישורים יש לך, אתה יכול להשתמש ב-AI כדי להגביר אותם.”
נקודת המבט של קיובן מדגישה שבעוד שכלי AI יכולים להציע יתרונות ויש לחקור אותם בשל הפוטנציאל שלהם לשפר ביצועים, הם אינם פתרונות עצמאיים.
AI יכול ליצור תוכן וידאו, אך חסרה לו היכולת לפתח נרטיב משכנע, שהוא המרכיב המכריע ביותר. באופן דומה, AI יכול לייצר קוד כדי לסייע בפיתוח אפליקציות, אך הוא אינו יכול לבנות את האפליקציה עצמה.
מגבלות אלו מדגישות את התפקיד החיוני של חשיבה ביקורתית ומומחיות אנושית. תוצרי AI יכולים ללא ספק לסייע במשימות שונות, אך הם אינם יכולים להחליף את הצורך הבסיסי בכושר המצאה ומיומנות אנושיים.
הצורך בהערכה ביקורתית ופיתוח מיומנויות
החשש, במיוחד בהקשר של מחקר זה, הוא שצעירים מובלים להאמין שכלי AI יכולים לספק תשובות סופיות. עם זאת, המחקר, יחד עם מאמצי מחקר רבים אחרים, מדגים בעקביות ש-AI אינו מיומן במיוחד בכך.
במקום לקדם AI כתחליף לשיטות מחקר מסורתיות, יש להתמקד בחינוך אנשים לגבי האופן שבו מערכות אלו יכולות להגביר את היכולות הקיימות שלהם. כדי למנף ביעילות את ה-AI, על המשתמשים להיות בעלי כישורי מחקר וניתוח חזקים, כמו גם מומחיות בתחומים רלוונטיים.
מבט מעמיק יותר על ההשלכות
ההשלכות של מחקר זה חורגות מעבר לחשש המיידי של ציטוטים לא מדויקים. הוא מעלה שאלות רחבות יותר לגבי תפקידו של AI בעיצוב ההבנה שלנו את העולם והפוטנציאל להפצה מהירה של מידע מוטעה.
1. שחיקת האמון במקורות מידע:
כאשר כלי AI מספקים בעקביות ציטוטים שגויים או מומצאים, הדבר שוחק את האמון במערכת האקולוגית של המידע כולה. משתמשים עשויים להפוך סקפטיים יותר ויותר לגבי כל המקורות, מה שמקשה על ההבחנה בין מידע אמין למידע לא אמין.
2. ההשפעה על חינוך ולמידה:
ההסתמכות על כלי AI למחקר, במיוחד בקרב משתמשים צעירים, עלולה להשפיע לרעה על חינוך ולמידה. תלמידים עלולים לפתח הבנה שטחית של נושאים, ללא כישורי החשיבה הביקורתית הדרושים להערכת מידע ביעילות.
3. האחריות האתית של מפתחי AI:
ממצאי מחקר זה מדגישים את האחריות האתית של מפתחי AI. עליהם לתעדף דיוק ושקיפות במערכות שלהם ולהבטיח שכלי AI אינם משמשים להפצת מידע מוטעה או לערעור שלמותם של מקורות מידע.
4. הצורך באוריינות מדיה וחשיבה ביקורתית:
בעידן הנשלט על ידי תוכן שנוצר על ידי AI, אוריינות מדיה וכישורי חשיבה ביקורתית חשובים מתמיד. יש לצייד אנשים ביכולת להעריך מידע באופן ביקורתי, לזהות הטיות ולהבחין בין מקורות אמינים ללא אמינים.
5. עתיד ה-AI במחקר ואחזור מידע:
המחקר מדגיש את הצורך בהמשך פיתוח ושיפור של כלי AI למחקר ואחזור מידע. בעוד של-AI יש פוטנציאל לחולל מהפכה בתחומים אלה, חיוני לטפל במגבלות הנוכחיות ולהבטיח שכלים אלה ישמשו באחריות ובאופן אתי.
הרחבה על חששות ספציפיים
בואו נתעמק עוד יותר בכמה מהחששות הספציפיים שהעלה המחקר:
א. בעיית ה”הזיות”:
צ’אטבוטים של AI ידועים בנטייתם ל”הזיות”, או ליצור מידע מומצא לחלוטין. זה בעייתי במיוחד בהקשר של ציטוטים, שם הדיוק הוא מעל הכל. ממצא המחקר שכלי AI ממציאים לעתים קרובות קישורי הפניה מדגיש את חומרת הבעיה הזו.
ב. בעיית ההטיה:
מודלים של AI מאומנים על מערכי נתונים עצומים, שעשויים להכיל הטיות המשקפות דעות קדומות חברתיות או נקודות מבט מוטות. הטיות אלו יכולות לבוא לידי ביטוי בתגובות של ה-AI, ולהוביל למידע לא מדויק או מטעה. זה מדאיג במיוחד כאשר כלי AI משמשים לחקר נושאים רגישים או שנויים במחלוקת.
ג. בעיית השקיפות:
פעולתם הפנימית של מודלים רבים של AI היא לעתים קרובות אטומה, מה שמקשה על הבנת האופן שבו הם מגיעים למסקנותיהם. חוסר שקיפות זה מקשה על זיהוי ותיקון שגיאות או הטיות במערכת.
ד. בעיית זכויות היוצרים:
ממצא המחקר שכמה כלי AI ניגשים לתוכן ממקורות שחסמו אותם מעלה חששות רציניים לגבי זכויות יוצרים. מפתחי AI חייבים לכבד זכויות קניין רוחני ולהבטיח שהכלים שלהם אינם משמשים להפרת זכויות יוצרים.
הדרך קדימה: פיתוח AI אחראי וחינוך
הדרך קדימה דורשת גישה דו-ראשית: פיתוח AI אחראי וחינוך מקיף.
1. פיתוח AI אחראי:
מפתחי AI חייבים לתעדף דיוק, שקיפות ושיקולים אתיים בתכנון וביישום של המערכות שלהם. זה כולל:
- שיפור דיוק הציטוט: פיתוח טכניקות כדי להבטיח שכלי AI מספקים ציטוטים מדויקים וניתנים לאימות.
- טיפול בהטיה: יישום שיטות להפחתת הטיה במודלים של AI ולהבטחת מתן מידע הוגן ומאוזן.
- שיפור השקיפות: הפיכת מודלים של AI לשקופים וניתנים להסבר, מה שמאפשר למשתמשים להבין כיצד הם מגיעים למסקנותיהם.
- כיבוד זכויות יוצרים: הבטחת כלי AI מכבדים זכויות קניין רוחני ואינם ניגשים או משתמשים בחומר המוגן בזכויות יוצרים ללא רשות.
2. חינוך מקיף:
יש לחנך אנשים, במיוחד צעירים, לגבי היכולות והמגבלות של כלי AI. זה כולל:
- קידום אוריינות מדיה: לימוד כישורי חשיבה ביקורתית והיכולת להעריך מידע ממקורות שונים.
- הדגשת כישורי מחקר: חיזוק חשיבותן של שיטות מחקר מסורתיות והיכולת לאמת מידע באופן עצמאי.
- הבנת מגבלות ה-AI: חינוך משתמשים לגבי הפוטנציאל של AI ליצור מידע לא מדויק או מוטה.
- עידוד שימוש אחראי: קידום שימוש אחראי ואתי בכלי AI.
על ידי שילוב של פיתוח AI אחראי עם חינוך מקיף, אנו יכולים לרתום את הפוטנציאל של AI תוך הפחתת הסיכונים שלו. המטרה היא ליצור עתיד שבו AI משמש ככלי רב ערך ללמידה וגילוי, ולא כמקור למידע מוטעה ובלבול. ממצאי מחקר זה מספקים תזכורת מכרעת לעבודה הצפויה לנו. המסע לקראת חברה מושכלת ובקיאה ב-AI באמת דורש ערנות מתמשכת, הערכה ביקורתית ומחויבות לחדשנות אחראית.