کشف نقصهای انسانی در هوش مصنوعی
تحقیقات اخیر جنبهای جذاب اما نگرانکننده از هوش مصنوعی (AI) را روشن کرده است: حساسیت آن به تمایلات غیرمنطقی مشابه آنچه در تصمیمگیریهای انسانی مشاهده میشود. این افشاگری، تصور مرسوم از هوش مصنوعی به عنوان ابزاری عینی و بیطرف را به چالش میکشد و ارزیابی مجدد سودمندی عملی آن را در کاربردهای گوناگون برمیانگیزد.
یک مطالعه پیشگامانه، رفتار ChatGPT، یک سیستم برجسته هوش مصنوعی، را در طیف وسیعی از سوگیریهای شناختی رایج در روانشناسی انسانی به دقت بررسی کرد. یافتهها، که در مجله معتبر Manufacturing & Service Operations Management منتشر شد، نشان داد که ChatGPT در تقریباً نیمی از سناریوهای ارزیابیشده، الگوهای تصمیمگیری غیرمنطقی متعددی را نشان میدهد. این الگوها شامل سوگیریهای مستند مانند مغالطه دست داغ، نادیده گرفتن نرخ پایه و مغالطه هزینه هدر رفته است که نگرانیهای قابل توجهی را در مورد قابلیت اطمینان و مناسب بودن هوش مصنوعی در زمینههای حیاتی تصمیمگیری ایجاد میکند.
تحقیقات انجام شده توسط کنسرسیومی از کارشناسان از پنج مؤسسه دانشگاهی برجسته در کانادا و استرالیا، عملکرد GPT-3.5 و GPT-4 OpenAI را، مدلهای زبانی بزرگ (LLM) بنیادی که ChatGPT را تامین میکنند، به طور جدی ارزیابی کردند. تحلیل جامع این مطالعه نشان داد که علیرغم «سازگاری چشمگیر» که این LLMها در فرآیندهای استدلال خود نشان میدهند، از نقصها و سوگیریهای مشابه انسان مصون نیستند.
نویسندگان به درستی خاطرنشان کردند که این سازگاری ذاتی در سیستمهای هوش مصنوعی، هم مزایا و هم معایبی را ارائه میدهد. در حالی که سازگاری میتواند وظایف را با راهحلهای واضح و فرمولی ساده کند، هنگام اعمال آن بر تصمیمات ذهنی یا مبتنی بر ترجیحات، خطرات بالقوهای را ایجاد میکند. در چنین سناریوهایی، تکثیر سوگیریهای انسانی توسط هوش مصنوعی میتواند منجر به نتایج ناقص و نتایج مغرضانه شود.
یانگ چن، نویسنده اصلی این مطالعه و استادیار مدیریت عملیات در دانشکده بازرگانی معتبر Ivey، بر اهمیت تشخیص کاربردهای مناسب ابزارهای هوش مصنوعی تاکید کرد. او هشدار داد که در حالی که هوش مصنوعی در وظایفی که نیاز به محاسبات دقیق و استدلال منطقی دارند، برتری دارد، استفاده از آن در فرآیندهای تصمیمگیری ذهنی نیازمند ملاحظات دقیق و نظارت هوشیارانه است.
شبیهسازی سوگیریهای انسانی در هوش مصنوعی
برای بررسی حضور سوگیریهای انسانی در سیستمهای هوش مصنوعی، محققان مجموعهای از آزمایشها را طراحی کردند که سوگیریهای انسانی شناخته شده از جمله اجتناب از خطر، اعتماد به نفس بیش از حد و اثر مالکیت را منعکس میکرد. آنها اعلانهایی را به ChatGPT ارائه کردند که برای تحریک این سوگیریها طراحی شده بودند و پاسخهای هوش مصنوعی را به دقت تجزیه و تحلیل کردند تا مشخص کنند که آیا آن نیز تسلیم همان تلههای شناختی انسانها میشود یا خیر.
دانشمندان سؤالات فرضی را که از آزمایشهای سنتی روانشناسی اقتباس شده بود، به LLMها مطرح کردند. این سؤالات در چارچوب کاربردهای تجاری دنیای واقعی، در زمینههایی مانند مدیریت موجودی و مذاکرات تامینکننده، تنظیم شده بودند. هدف این بود که مشخص شود آیا هوش مصنوعی از سوگیریهای انسانی تقلید میکند و آیا حساسیت آن به این سوگیریها در حوزههای مختلف تجاری ادامه خواهد داشت یا خیر.
نتایج نشان داد که GPT-4 نسبت به سلف خود، GPT-3.5، در حل مسائلی با راهحلهای ریاضی صریح، عملکرد بهتری دارد. GPT-4 خطاهای کمتری را در سناریوهایی که نیاز به محاسبات احتمال و استدلال منطقی داشتند، نشان داد. با این حال، در شبیهسازیهای ذهنی، مانند تصمیمگیری در مورد دنبال کردن یک گزینه پرخطر برای تامین سود، چتبات اغلب ترجیحات غیرمنطقی نشان داده شده توسط انسانها را منعکس میکند.
ترجیح هوش مصنوعی برای قطعیت
شایان ذکر است، این مطالعه نشان داد که «GPT-4 نسبت به انسانها ترجیح بیشتری برای قطعیت نشان میدهد.» این مشاهده بر تمایل هوش مصنوعی به ترجیح نتایج ایمنتر و قابل پیشبینیتر هنگام مواجهه با وظایف مبهم تأکید میکند. تمایل به قطعیت میتواند در موقعیتهای خاص سودمند باشد، اما ممکن است توانایی هوش مصنوعی را برای کشف راهحلهای نوآورانه یا سازگاری با شرایط پیشبینینشده محدود کند.
به طور قابل توجهی، رفتارهای چتباتها صرف نظر از اینکه سؤالات به عنوان مسائل انتزاعی روانشناختی یا فرآیندهای عملیاتی تجاری ارائه شوند، به طور قابل توجهی ثابت باقی ماندند. این ثبات نشان میدهد که سوگیریهای مشاهده شده صرفاً نتیجه نمونههای حفظ شده نیستند، بلکه جنبهای ذاتی از نحوه استدلال و پردازش اطلاعات توسط سیستمهای هوش مصنوعی هستند. این مطالعه به این نتیجه رسید که سوگیریهای نشان داده شده توسط هوش مصنوعی در مکانیسمهای استدلال آن تعبیه شدهاند.
یکی از تکاندهندهترین افشاگریهای این مطالعه، نحوه بزرگنمایی اشتباهات شبیه انسان توسط GPT-4 بود. در وظایف سوگیری تأیید، GPT-4 به طور مداوم پاسخهای مغرضانه ارائه میکرد. علاوه بر این، نسبت به GPT 3.5 تمایل بیشتری به مغالطه دست داغ نشان داد که نشاندهنده تمایل قویتری به درک الگوها در تصادف است.
مواردی از اجتناب از سوگیری
به طور شگفتانگیزی، ChatGPT توانایی دور زدن برخی از سوگیریهای رایج انسانی، از جمله نادیده گرفتن نرخ پایه و مغالطه هزینه هدر رفته را نشان داد. نادیده گرفتن نرخ پایه زمانی رخ میدهد که افراد حقایق آماری را به نفع اطلاعات حکایتی یا موردی خاص نادیده بگیرند. مغالطه هزینه هدر رفته زمانی به وجود میآید که تصمیمگیری به طور نابجا تحت تأثیر هزینههایی قرار گیرد که قبلاً متحمل شدهاند و قضاوت منطقی را مبهم میکنند.
نویسندگان این فرضیه را مطرح میکنند که سوگیریهای شبیه به انسان در ChatGPT ناشی از دادههای آموزشی است که در معرض آن قرار میگیرد که شامل سوگیریهای شناختی و ابتکاراتی است که انسانها نشان میدهند. این تمایلات در طول فرآیند تنظیم دقیق، به ویژه زمانی که بازخورد انسانی پاسخهای معقول را بر پاسخهای منطقی اولویت میدهد، تقویت میشوند. در مواجهه با وظایف مبهم، هوش مصنوعی تمایل دارد به جای تکیه صرفاً بر منطق مستقیم، به الگوهای استدلال انسانی متمایل شود.
پیمایش سوگیریهای هوش مصنوعی
برای کاهش خطرات مرتبط با سوگیریهای هوش مصنوعی، محققان از یک رویکرد سنجیده به کاربرد آن حمایت میکنند. آنها توصیه میکنند که هوش مصنوعی در زمینههایی که نقاط قوت آن در آن نهفته است، مانند وظایفی که نیاز به دقت و محاسبات بیطرفانه دارند، شبیه به آنچه که یک ماشین حساب انجام میدهد، استفاده شود. با این حال، زمانی که نتیجه به ورودیهای ذهنی یا استراتژیک بستگی دارد، نظارت انسانی بسیار مهم میشود.
چن تاکید میکند که «اگر پشتیبانی تصمیم دقیق و بیطرفانه میخواهید، از GPT در زمینههایی استفاده کنید که قبلاً به ماشین حساب اعتماد دارید.» او همچنین پیشنهاد میکند که مداخله انسانی، مانند تنظیم اعلانهای کاربر برای اصلاح سوگیریهای شناخته شده، زمانی که هوش مصنوعی در زمینههایی استفاده میشود که نیاز به قضاوت ظریف و تفکر استراتژیک دارند، ضروری است.
مینا آندیاپان، یکی از نویسندگان این مطالعه و دانشیار منابع انسانی و مدیریت در دانشگاه مکمستر کانادا، از رفتار با هوش مصنوعی به عنوان کارمندی که تصمیمات مهم میگیرد، حمایت میکند. او بر نیاز به نظارت و دستورالعملهای اخلاقی برای اطمینان از استفاده مسئولانه و مؤثر از هوش مصنوعی تاکید میکند. عدم ارائه چنین راهنماییهایی میتواند منجر به خودکارسازی تفکر ناقص، به جای بهبود مطلوب در فرآیندهای تصمیمگیری شود.
مفاهیم و ملاحظات
یافتههای این مطالعه پیامدهای عمیقی برای توسعه و استقرار سیستمهای هوش مصنوعی در بخشهای مختلف دارد. این افشاگری که هوش مصنوعی مستعد سوگیریهای شبیه به انسان است، بر اهمیت ارزیابی دقیق مناسب بودن آن برای وظایف خاص و اجرای پادمانهایی برای کاهش خطرات احتمالی تاکید میکند.
سازمانهایی که برای تصمیمگیری به هوش مصنوعی تکیه میکنند، باید از احتمال سوگیری آگاه باشند و اقداماتی برای رسیدگی به آن انجام دهند. این ممکن است شامل ارائه دادههای آموزشی اضافی برای کاهش سوگیری، استفاده از الگوریتمهایی که کمتر مستعد سوگیری هستند یا اجرای نظارت انسانی برای اطمینان از عادلانه و دقیق بودن تصمیمات هوش مصنوعی باشد.
این مطالعه همچنین بر نیاز به تحقیقات بیشتر در مورد علل و پیامدهای سوگیری هوش مصنوعی تاکید میکند. با به دست آوردن درک بهتری از نحوه ایجاد سوگیری توسط سیستمهای هوش مصنوعی، میتوانیم استراتژیهایی را برای جلوگیری از وقوع آنها در وهله اول توسعه دهیم.
توصیههایی برای پیادهسازی مسئولانه هوش مصنوعی
برای اطمینان از پیادهسازی مسئولانه و مؤثر سیستمهای هوش مصنوعی، توصیههای زیر باید در نظر گرفته شوند:
- سیستمهای هوش مصنوعی را قبل از استقرار به طور کامل برای سوگیریهای احتمالی ارزیابی کنید. این شامل آزمایش سیستم هوش مصنوعی بر روی انواع دادهها و سناریوها برای شناسایی هرگونه زمینهای است که ممکن است مستعد سوگیری باشد.
- دادههای آموزشی اضافی را برای کاهش سوگیری ارائه دهید. هرچه دادههای آموزشی متنوعتر و نمایندهتر باشند، احتمال اینکه سیستم هوش مصنوعی سوگیری ایجاد کند کمتر است.
- از الگوریتمهایی استفاده کنید که کمتر مستعد سوگیری هستند. برخی از الگوریتمها نسبت به سایرین مستعد سوگیری بیشتری هستند. هنگام انتخاب یک الگوریتم برای یک کار خاص، مهم است که پتانسیل آن برای سوگیری را در نظر بگیرید.
- نظارت انسانی را برای اطمینان از عادلانه و دقیق بودن تصمیمات هوش مصنوعی اجرا کنید. نظارت انسانی میتواند به شناسایی و اصلاح هرگونه سوگیری در تصمیمات هوش مصنوعی کمک کند.
- دستورالعملهای اخلاقی روشنی برای استفاده از هوش مصنوعی ایجاد کنید. این دستورالعملها باید به مسائلی مانند عدالت، مسئولیتپذیری و شفافیت رسیدگی کنند.
با پیروی از این توصیهها، سازمانها میتوانند اطمینان حاصل کنند که سیستمهای هوش مصنوعی به گونهای مورد استفاده قرار میگیرند که هم سودمند و هم مسئولانه باشد. بینشهای به دست آمده از این تحقیق به عنوان یادآوری ارزشمندی عمل میکند که در حالی که هوش مصنوعی وعدههای عظیمی دارد، بسیار مهم است که با احتیاط و تعهد به اصول اخلاقی به اجرای آن نزدیک شویم. تنها در این صورت میتوانیم از تمام پتانسیل هوش مصنوعی استفاده کنیم و در عین حال در برابر خطرات احتمالی آن محافظت کنیم.