بازتاب عیوب انسانی در تصمیم‌گیری هوش مصنوعی

کشف نقص‌های انسانی در هوش مصنوعی

تحقیقات اخیر جنبه‌ای جذاب اما نگران‌کننده از هوش مصنوعی (AI) را روشن کرده است: حساسیت آن به تمایلات غیرمنطقی مشابه آنچه در تصمیم‌گیری‌های انسانی مشاهده می‌شود. این افشاگری، تصور مرسوم از هوش مصنوعی به عنوان ابزاری عینی و بی‌طرف را به چالش می‌کشد و ارزیابی مجدد سودمندی عملی آن را در کاربردهای گوناگون برمی‌انگیزد.

یک مطالعه پیشگامانه، رفتار ChatGPT، یک سیستم برجسته هوش مصنوعی، را در طیف وسیعی از سوگیری‌های شناختی رایج در روان‌شناسی انسانی به دقت بررسی کرد. یافته‌ها، که در مجله معتبر Manufacturing & Service Operations Management منتشر شد، نشان داد که ChatGPT در تقریباً نیمی از سناریوهای ارزیابی‌شده، الگوهای تصمیم‌گیری غیرمنطقی متعددی را نشان می‌دهد. این الگوها شامل سوگیری‌های مستند مانند مغالطه دست داغ، نادیده گرفتن نرخ پایه و مغالطه هزینه هدر رفته است که نگرانی‌های قابل توجهی را در مورد قابلیت اطمینان و مناسب بودن هوش مصنوعی در زمینه‌های حیاتی تصمیم‌گیری ایجاد می‌کند.

تحقیقات انجام شده توسط کنسرسیومی از کارشناسان از پنج مؤسسه دانشگاهی برجسته در کانادا و استرالیا، عملکرد GPT-3.5 و GPT-4 OpenAI را، مدل‌های زبانی بزرگ (LLM) بنیادی که ChatGPT را تامین می‌کنند، به طور جدی ارزیابی کردند. تحلیل جامع این مطالعه نشان داد که علی‌رغم «سازگاری چشمگیر» که این LLMها در فرآیندهای استدلال خود نشان می‌دهند، از نقص‌ها و سوگیری‌های مشابه انسان مصون نیستند.

نویسندگان به درستی خاطرنشان کردند که این سازگاری ذاتی در سیستم‌های هوش مصنوعی، هم مزایا و هم معایبی را ارائه می‌دهد. در حالی که سازگاری می‌تواند وظایف را با راه‌حل‌های واضح و فرمولی ساده کند، هنگام اعمال آن بر تصمیمات ذهنی یا مبتنی بر ترجیحات، خطرات بالقوه‌ای را ایجاد می‌کند. در چنین سناریوهایی، تکثیر سوگیری‌های انسانی توسط هوش مصنوعی می‌تواند منجر به نتایج ناقص و نتایج مغرضانه شود.

یانگ چن، نویسنده اصلی این مطالعه و استادیار مدیریت عملیات در دانشکده بازرگانی معتبر Ivey، بر اهمیت تشخیص کاربردهای مناسب ابزارهای هوش مصنوعی تاکید کرد. او هشدار داد که در حالی که هوش مصنوعی در وظایفی که نیاز به محاسبات دقیق و استدلال منطقی دارند، برتری دارد، استفاده از آن در فرآیندهای تصمیم‌گیری ذهنی نیازمند ملاحظات دقیق و نظارت هوشیارانه است.

شبیه‌سازی سوگیری‌های انسانی در هوش مصنوعی

برای بررسی حضور سوگیری‌های انسانی در سیستم‌های هوش مصنوعی، محققان مجموعه‌ای از آزمایش‌ها را طراحی کردند که سوگیری‌های انسانی شناخته شده از جمله اجتناب از خطر، اعتماد به نفس بیش از حد و اثر مالکیت را منعکس می‌کرد. آن‌ها اعلان‌هایی را به ChatGPT ارائه کردند که برای تحریک این سوگیری‌ها طراحی شده بودند و پاسخ‌های هوش مصنوعی را به دقت تجزیه و تحلیل کردند تا مشخص کنند که آیا آن نیز تسلیم همان تله‌های شناختی انسان‌ها می‌شود یا خیر.

دانشمندان سؤالات فرضی را که از آزمایش‌های سنتی روان‌شناسی اقتباس شده بود، به LLMها مطرح کردند. این سؤالات در چارچوب کاربردهای تجاری دنیای واقعی، در زمینه‌هایی مانند مدیریت موجودی و مذاکرات تامین‌کننده، تنظیم شده بودند. هدف این بود که مشخص شود آیا هوش مصنوعی از سوگیری‌های انسانی تقلید می‌کند و آیا حساسیت آن به این سوگیری‌ها در حوزه‌های مختلف تجاری ادامه خواهد داشت یا خیر.

نتایج نشان داد که GPT-4 نسبت به سلف خود، GPT-3.5، در حل مسائلی با راه‌حل‌های ریاضی صریح، عملکرد بهتری دارد. GPT-4 خطاهای کمتری را در سناریوهایی که نیاز به محاسبات احتمال و استدلال منطقی داشتند، نشان داد. با این حال، در شبیه‌سازی‌های ذهنی، مانند تصمیم‌گیری در مورد دنبال کردن یک گزینه پرخطر برای تامین سود، چت‌بات اغلب ترجیحات غیرمنطقی نشان داده شده توسط انسان‌ها را منعکس می‌کند.

ترجیح هوش مصنوعی برای قطعیت

شایان ذکر است، این مطالعه نشان داد که «GPT-4 نسبت به انسان‌ها ترجیح بیشتری برای قطعیت نشان می‌دهد.» این مشاهده بر تمایل هوش مصنوعی به ترجیح نتایج ایمن‌تر و قابل پیش‌بینی‌تر هنگام مواجهه با وظایف مبهم تأکید می‌کند. تمایل به قطعیت می‌تواند در موقعیت‌های خاص سودمند باشد، اما ممکن است توانایی هوش مصنوعی را برای کشف راه‌حل‌های نوآورانه یا سازگاری با شرایط پیش‌بینی‌نشده محدود کند.

به طور قابل توجهی، رفتارهای چت‌بات‌ها صرف نظر از اینکه سؤالات به عنوان مسائل انتزاعی روان‌شناختی یا فرآیندهای عملیاتی تجاری ارائه شوند، به طور قابل توجهی ثابت باقی ماندند. این ثبات نشان می‌دهد که سوگیری‌های مشاهده شده صرفاً نتیجه نمونه‌های حفظ شده نیستند، بلکه جنبه‌ای ذاتی از نحوه استدلال و پردازش اطلاعات توسط سیستم‌های هوش مصنوعی هستند. این مطالعه به این نتیجه رسید که سوگیری‌های نشان داده شده توسط هوش مصنوعی در مکانیسم‌های استدلال آن تعبیه شده‌اند.

یکی از تکان‌دهنده‌ترین افشاگری‌های این مطالعه، نحوه بزرگنمایی اشتباهات شبیه انسان توسط GPT-4 بود. در وظایف سوگیری تأیید، GPT-4 به طور مداوم پاسخ‌های مغرضانه ارائه می‌کرد. علاوه بر این، نسبت به GPT 3.5 تمایل بیشتری به مغالطه دست داغ نشان داد که نشان‌دهنده تمایل قوی‌تری به درک الگوها در تصادف است.

مواردی از اجتناب از سوگیری

به طور شگفت‌انگیزی، ChatGPT توانایی دور زدن برخی از سوگیری‌های رایج انسانی، از جمله نادیده گرفتن نرخ پایه و مغالطه هزینه هدر رفته را نشان داد. نادیده گرفتن نرخ پایه زمانی رخ می‌دهد که افراد حقایق آماری را به نفع اطلاعات حکایتی یا موردی خاص نادیده بگیرند. مغالطه هزینه هدر رفته زمانی به وجود می‌آید که تصمیم‌گیری به طور نابجا تحت تأثیر هزینه‌هایی قرار گیرد که قبلاً متحمل شده‌اند و قضاوت منطقی را مبهم می‌کنند.

نویسندگان این فرضیه را مطرح می‌کنند که سوگیری‌های شبیه به انسان در ChatGPT ناشی از داده‌های آموزشی است که در معرض آن قرار می‌گیرد که شامل سوگیری‌های شناختی و ابتکاراتی است که انسان‌ها نشان می‌دهند. این تمایلات در طول فرآیند تنظیم دقیق، به ویژه زمانی که بازخورد انسانی پاسخ‌های معقول را بر پاسخ‌های منطقی اولویت می‌دهد، تقویت می‌شوند. در مواجهه با وظایف مبهم، هوش مصنوعی تمایل دارد به جای تکیه صرفاً بر منطق مستقیم، به الگوهای استدلال انسانی متمایل شود.

پیمایش سوگیری‌های هوش مصنوعی

برای کاهش خطرات مرتبط با سوگیری‌های هوش مصنوعی، محققان از یک رویکرد سنجیده به کاربرد آن حمایت می‌کنند. آن‌ها توصیه می‌کنند که هوش مصنوعی در زمینه‌هایی که نقاط قوت آن در آن نهفته است، مانند وظایفی که نیاز به دقت و محاسبات بی‌طرفانه دارند، شبیه به آنچه که یک ماشین حساب انجام می‌دهد، استفاده شود. با این حال، زمانی که نتیجه به ورودی‌های ذهنی یا استراتژیک بستگی دارد، نظارت انسانی بسیار مهم می‌شود.

چن تاکید می‌کند که «اگر پشتیبانی تصمیم دقیق و بی‌طرفانه می‌خواهید، از GPT در زمینه‌هایی استفاده کنید که قبلاً به ماشین حساب اعتماد دارید.» او همچنین پیشنهاد می‌کند که مداخله انسانی، مانند تنظیم اعلان‌های کاربر برای اصلاح سوگیری‌های شناخته شده، زمانی که هوش مصنوعی در زمینه‌هایی استفاده می‌شود که نیاز به قضاوت ظریف و تفکر استراتژیک دارند، ضروری است.

مینا آندیاپان، یکی از نویسندگان این مطالعه و دانشیار منابع انسانی و مدیریت در دانشگاه مک‌مستر کانادا، از رفتار با هوش مصنوعی به عنوان کارمندی که تصمیمات مهم می‌گیرد، حمایت می‌کند. او بر نیاز به نظارت و دستورالعمل‌های اخلاقی برای اطمینان از استفاده مسئولانه و مؤثر از هوش مصنوعی تاکید می‌کند. عدم ارائه چنین راهنمایی‌هایی می‌تواند منجر به خودکارسازی تفکر ناقص، به جای بهبود مطلوب در فرآیندهای تصمیم‌گیری شود.

مفاهیم و ملاحظات

یافته‌های این مطالعه پیامدهای عمیقی برای توسعه و استقرار سیستم‌های هوش مصنوعی در بخش‌های مختلف دارد. این افشاگری که هوش مصنوعی مستعد سوگیری‌های شبیه به انسان است، بر اهمیت ارزیابی دقیق مناسب بودن آن برای وظایف خاص و اجرای پادمان‌هایی برای کاهش خطرات احتمالی تاکید می‌کند.

سازمان‌هایی که برای تصمیم‌گیری به هوش مصنوعی تکیه می‌کنند، باید از احتمال سوگیری آگاه باشند و اقداماتی برای رسیدگی به آن انجام دهند. این ممکن است شامل ارائه داده‌های آموزشی اضافی برای کاهش سوگیری، استفاده از الگوریتم‌هایی که کمتر مستعد سوگیری هستند یا اجرای نظارت انسانی برای اطمینان از عادلانه و دقیق بودن تصمیمات هوش مصنوعی باشد.

این مطالعه همچنین بر نیاز به تحقیقات بیشتر در مورد علل و پیامدهای سوگیری هوش مصنوعی تاکید می‌کند. با به دست آوردن درک بهتری از نحوه ایجاد سوگیری توسط سیستم‌های هوش مصنوعی، می‌توانیم استراتژی‌هایی را برای جلوگیری از وقوع آن‌ها در وهله اول توسعه دهیم.

توصیه‌هایی برای پیاده‌سازی مسئولانه هوش مصنوعی

برای اطمینان از پیاده‌سازی مسئولانه و مؤثر سیستم‌های هوش مصنوعی، توصیه‌های زیر باید در نظر گرفته شوند:

  • سیستم‌های هوش مصنوعی را قبل از استقرار به طور کامل برای سوگیری‌های احتمالی ارزیابی کنید. این شامل آزمایش سیستم هوش مصنوعی بر روی انواع داده‌ها و سناریوها برای شناسایی هرگونه زمینه‌ای است که ممکن است مستعد سوگیری باشد.
  • داده‌های آموزشی اضافی را برای کاهش سوگیری ارائه دهید. هرچه داده‌های آموزشی متنوع‌تر و نماینده‌تر باشند، احتمال اینکه سیستم هوش مصنوعی سوگیری ایجاد کند کمتر است.
  • از الگوریتم‌هایی استفاده کنید که کمتر مستعد سوگیری هستند. برخی از الگوریتم‌ها نسبت به سایرین مستعد سوگیری بیشتری هستند. هنگام انتخاب یک الگوریتم برای یک کار خاص، مهم است که پتانسیل آن برای سوگیری را در نظر بگیرید.
  • نظارت انسانی را برای اطمینان از عادلانه و دقیق بودن تصمیمات هوش مصنوعی اجرا کنید. نظارت انسانی می‌تواند به شناسایی و اصلاح هرگونه سوگیری در تصمیمات هوش مصنوعی کمک کند.
  • دستورالعمل‌های اخلاقی روشنی برای استفاده از هوش مصنوعی ایجاد کنید. این دستورالعمل‌ها باید به مسائلی مانند عدالت، مسئولیت‌پذیری و شفافیت رسیدگی کنند.

با پیروی از این توصیه‌ها، سازمان‌ها می‌توانند اطمینان حاصل کنند که سیستم‌های هوش مصنوعی به گونه‌ای مورد استفاده قرار می‌گیرند که هم سودمند و هم مسئولانه باشد. بینش‌های به دست آمده از این تحقیق به عنوان یادآوری ارزشمندی عمل می‌کند که در حالی که هوش مصنوعی وعده‌های عظیمی دارد، بسیار مهم است که با احتیاط و تعهد به اصول اخلاقی به اجرای آن نزدیک شویم. تنها در این صورت می‌توانیم از تمام پتانسیل هوش مصنوعی استفاده کنیم و در عین حال در برابر خطرات احتمالی آن محافظت کنیم.