גילוי פגמים דמויי אדם בבינה מלאכותית
מחקרים חדשים חושפים היבט מרתק ומטריד של בינה מלאכותית (AI): נטייתה לאי-רציונליות הדומה לזו שנצפתה בקבלת החלטות אנושיות. התגלות זו מאתגרת את התפיסה המקובלת של AI ככלי אובייקטיבי ונטול פניות, ומעוררת הערכה מחודשת של התועלת המעשית שלו במגוון רחב של יישומים.
מחקר פורץ דרך בחן בקפדנות את התנהגותו של ChatGPT, מערכת AI בולטת, על פני מגוון של הטיות קוגניטיביות הנפוצות בפסיכולוגיה האנושית. הממצאים, שפורסמו בכתב העת הנחשב Manufacturing & Service Operations Management, חשפו ש-ChatGPT הציג דפוסי קבלת החלטות לא רציונליים רבים בכמעט מחצית מהתרחישים שנבדקו. דפוסים אלה כוללים הטיות מתועדות היטב כמו כשל היד החמה, הזנחת שיעור הבסיס וכשל העלות השקועה, מה שמעלה חששות משמעותיים לגבי המהימנות וההתאמה של AI בהקשרים קריטיים של קבלת החלטות.
המחקר, שנערך על ידי קונסורציום של מומחים מחמישה מוסדות אקדמיים נכבדים בקנדה ואוסטרליה, העריך בקפדנות את הביצועים של GPT-3.5 ו-GPT-4 של OpenAI, מודלי השפה הגדולים (LLM) הבסיסיים המניעים את ChatGPT. הניתוח המקיף של המחקר חשף שלמרות ה”עקביות המרשימה” שהפגינו LLM אלה בתהליכי הנימוק שלהם, הם רחוקים מלהיות חסינים מפני פגמים והטיות דמויי אדם.
המחברים הדגישו בחוכמה שעקביות מובנית זו בתוך מערכות AI מציגה יתרונות וחסרונות כאחד. בעוד שעקביות יכולה לייעל משימות עם פתרונות ברורים ופורמליים, היא מציבה סיכונים פוטנציאליים כאשר היא מיושמת על החלטות סובייקטיביות או מונעות העדפה. בתרחישים כאלה, שיעתוק של הטיות אנושיות על ידי AI עלול להוביל לתוצאות פגומות ולתוצאות מוטות.
יאנג צ’ן, המחבר הראשי של המחקר ועוזר פרופסור לניהול תפעול בבית הספר לעסקים הנחשב Ivey, הדגיש את החשיבות של הבחנה בין היישומים המתאימים של כלי AI. הוא הזהיר כי בעוד AI מצטיין במשימות הדורשות חישובים מדויקים ונימוקים לוגיים, היישום שלו בתהליכי קבלת החלטות סובייקטיביות מחייב שיקול דעת זהיר ומעקב זהיר.
הדמיית הטיות אנושיות בבינה מלאכותית
כדי להתעמק בנוכחות של הטיות אנושיות בתוך מערכות AI, החוקרים הגו סדרה של ניסויים ששיקפו הטיות אנושיות ידועות, כולל סלידת סיכון, ביטחון יתר ואפקט הבעלות. הם הציגו ל-ChatGPT הנחיות שנועדו לעורר הטיות אלה וניתחו בקפדנות את תגובות ה-AI כדי לקבוע אם הוא ייכנע לאותן מלכודות קוגניטיביות כמו בני אדם.
המדענים הציגו שאלות היפותטיות, המותאמות מניסויים פסיכולוגיים מסורתיים, ל-LLM. שאלות אלה מוסגרו בהקשר של יישומים מסחריים בעולם האמיתי, המשתרעים על תחומים כמו ניהול מלאי ומשא ומתן עם ספקים. המטרה הייתה לברר האם AI יחקה הטיות אנושיות והאם הרגישות שלו להטיות אלה תימשך על פני תחומים עסקיים שונים.
התוצאות חשפו ש-GPT-4 עלה על קודמו, GPT-3.5, בפתרון בעיות עם פתרונות מתמטיים מפורשים. GPT-4 הציג פחות שגיאות בתרחישים שדרשו חישובי הסתברות ונימוקים לוגיים. עם זאת, בהדמיות סובייקטיביות, כגון החלטה האם לנקוט באופציה מסוכנת כדי להבטיח רווח, הצ’אטבוט שיקף לעתים קרובות את ההעדפות הלא רציונליות שהציגו בני אדם.
העדפת AI לוודאות
יש לציין שהמחקר חשף ש”GPT-4 מראה העדפה חזקה יותר לוודאות אפילו מבני אדם”. תצפית זו מדגישה את הנטייה של AI להעדיף תוצאות בטוחות וצפויות יותר כאשר הוא מתמודד עם משימות מעורפלות. הנטייה לוודאות יכולה להיות יתרון במצבים מסוימים, אך היא עשויה גם להגביל את יכולתו של AI לחקור פתרונות חדשניים או להסתגל לנסיבות בלתי צפויות.
משמעותית, ההתנהגויות של הצ’אטבוטים נותרו עקביות להפליא, ללא קשר לשאלה אם השאלות הוצגו כבעיות פסיכולוגיות מופשטות או תהליכים עסקיים תפעוליים. עקביות זו מצביעה על כך שההטיות שנצפו לא היו רק תוצאה של דוגמאות שנלמדו בעל פה אלא היבט מהותי של האופן שבו מערכות AI מנמקות ומעבדות מידע. המחקר הגיע למסקנה שההטיות שהציגה AI מוטמעות במנגנוני הנימוק שלה.
אחד הגילויים המדהימים ביותר של המחקר היה האופן שבו GPT-4 הגביר מדי פעם שגיאות דמויות אדם. במשימות הטיות אישור, GPT-4 סיפק בעקביות תגובות מוטות. יתר על כן, הוא הציג נטייה בולטת יותר כלפי כשל היד החמה מאשר GPT 3.5, מה שמצביע על נטייה חזקה יותר לתפוס דפוסים באקראיות.
מקרים של הימנעות מהטיה
באופן מסקרן, ChatGPT הדגים את היכולת לעקוף הטיות אנושיות נפוצות מסוימות, כולל הזנחת שיעור הבסיס וכשל העלות השקועה. הזנחת שיעור הבסיס מתרחשת כאשר אנשים מתעלמים מעובדות סטטיסטיות לטובת מידע אנקדוטלי או ספציפי למקרה. כשל העלות השקועה מתעורר כאשר קבלת החלטות מושפעת שלא בצדק מעלויות שכבר נגרמו, ומטשטשת שיפוט רציונלי.
המחברים מעלים את ההשערה שההטיות דמויות האדם של ChatGPT נובעות מנתוני האימון שהוא נחשף אליהם, הכוללים את ההטיות הקוגניטיביות וההיוריסטיקות שבני אדם מציגים. נטיות אלה מתחזקות עוד יותר במהלך תהליך הכוונון העדין, במיוחד כאשר משוב אנושי נותן עדיפות לתגובות סבירות על פני תגובות רציונליות. מול משימות מעורפלות, AI נוטה להימשך לדפוסי חשיבה אנושיים במקום להסתמך רק על לוגיקה ישירה.
ניווט בהטיות של AI
כדי להפחית את הסיכונים הקשורים להטיות של AI, החוקרים תומכים בגישה שקולה ליישומו. הם ממליצים להשתמש ב-AI בתחומים שבהם טמונות נקודות החוזק שלו, כגון משימות הדורשות דיוק וחישובים נטולי פניות, בדומה לאלה שמבצע מחשבון. עם זאת, כאשר התוצאה תלויה בתשומות סובייקטיביות או אסטרטגיות, פיקוח אנושי הופך לחשיבות עליונה.
צ’ן מדגיש ש”אם אתה רוצה תמיכה בקבלת החלטות מדויקת ונטולת פניות, השתמש ב-GPT בתחומים שבהם כבר היית סומך על מחשבון”. הוא מציע עוד כי התערבות אנושית, כגון התאמת הנחיות משתמש כדי לתקן הטיות ידועות, היא חיונית כאשר AI משמש בהקשרים הדורשים שיפוט ניואנסי וחשיבה אסטרטגית.
מינה אנדיאפן, מחברת שותפה של המחקר ופרופסור חבר למשאבי אנוש וניהול באוניברסיטת מקמסטר בקנדה, תומכת בהתייחסות ל-AI כאל עובד שמקבל החלטות חשובות. היא מדגישה את הצורך בפיקוח ובקווים מנחים אתיים כדי להבטיח שה-AI ישמש באחריות וביעילות. אי מתן הדרכה כזו עלול להוביל לאוטומציה של חשיבה פגומה, ולא לשיפור הרצוי בתהליכי קבלת ההחלטות.
השלכות ושיקולים
לממצאי המחקר יש השלכות עמוקות על הפיתוח והפריסה של מערכות AI על פני מגזרים מגוונים. הגילוי ש-AI רגיש להטיות דמויות אדם מדגיש את החשיבות של הערכה זהירה של התאמתו למשימות ספציפיות ויישום אמצעי הגנה להפחתת סיכונים פוטנציאליים.
ארגונים המסתמכים על AI לקבלת החלטות צריכים להיות מודעים לפוטנציאל להטיה ולנקוט בצעדים כדי לטפל בה. זה עשוי לכלול מתן נתוני אימון נוספים כדי להפחית את ההטיה, שימוש באלגוריתמים שפחות נוטים להטיה או יישום פיקוח אנושי כדי להבטיח שהחלטות AI יהיו הוגנות ומדויקות.
המחקר גם מדגיש את הצורך במחקר נוסף לגבי הגורמים וההשלכות של הטיית AI. על ידי השגת הבנה טובה יותר של האופן שבו מערכות AI מפתחות הטיות, נוכל לפתח אסטרטגיות למניעת התרחשותן מלכתחילה.
המלצות ליישום AI אחראי
כדי להבטיח את היישום האחראי והיעיל של מערכות AI, יש לשקול את ההמלצות הבאות:
- הערך ביסודיות מערכות AI לאיתור הטיות פוטנציאליות לפני הפריסה. זה כולל בדיקת מערכת ה-AI על מגוון מערכי נתונים ותרחישים כדי לזהות תחומים שבהם היא עלולה להיות נוטה להטיה.
- ספק נתוני אימון נוספים כדי להפחית את ההטיה. ככל שנתוני האימון מגוונים ומייצגים יותר, כך פחות סביר שמערכת ה-AI תפתח הטיות.
- השתמש באלגוריתמים שפחות נוטים להטיה. אלגוריתמים מסוימים רגישים יותר להטיה מאחרים. בעת בחירת אלגוריתם למשימה מסוימת, חשוב לקחת בחשבון את הפוטנציאל שלו להטיה.
- יישם פיקוח אנושי כדי להבטיח שהחלטות AI יהיו הוגנות ומדויקות. פיקוח אנושי יכול לעזור לזהות ולתקן כל הטיות בהחלטות AI.
- קבע קווים מנחים אתיים ברורים לשימוש ב-AI. קווים מנחים אלה צריכים לטפל בנושאים כגון הוגנות, אחריות ושקיפות.
על ידי ביצוע המלצות אלה, ארגונים יכולים להבטיח שמערכות AI ישמשו באופן מועיל ואחראי כאחד. התובנות שנאספו ממחקר זה משמשות תזכורת חשובה לכך שלמרות של-AI יש הבטחה עצומה, חיוני לגשת ליישומו בזהירות ובמחויבות לעקרונות אתיים. רק אז נוכל לרתום את מלוא הפוטנציאל של AI תוך שמירה מפני המלכודות הפוטנציאליות שלו.