الذكاء الاصطناعي: انعكاس عيوب الإنسان

كشفت تحقيقات حديثة عن جانب رائع ومثير للقلق في الذكاء الاصطناعي (AI): قابليته للتأثر بالميول اللاعقلانية المشابهة لتلك التي لوحظت في اتخاذ القرارات البشرية. هذا الكشف يتحدى التصور التقليدي للذكاء الاصطناعي كأداة موضوعية وغير متحيزة، مما يدعو إلى إعادة تقييم فائدته العملية عبر تطبيقات متنوعة.

فحصت دراسة رائدة بدقة سلوك ChatGPT، وهو نظام ذكاء اصطناعي بارز، عبر مجموعة من التحيزات المعرفية السائدة في علم النفس البشري. وكشفت النتائج، التي نشرت في المجلة الموقرة Manufacturing & Service Operations Management، أن ChatGPT أظهر أنماطًا عديدة من اتخاذ القرارات غير العقلانية في ما يقرب من نصف السيناريوهات التي تم تقييمها. وتشمل هذه الأنماط تحيزات موثقة جيدًا مثل مغالطة اليد الساخنة، وإهمال المعدل الأساسي، ومغالطة التكلفة الغارقة، مما يثير مخاوف كبيرة بشأن موثوقية وملاءمة الذكاء الاصطناعي في سياقات اتخاذ القرارات الحاسمة.

الكشف عن عيوب شبيهة بالبشر في الذكاء الاصطناعي

أجرى البحث، الذي قام به اتحاد من الخبراء من خمس مؤسسات أكاديمية متميزة تمتد عبر كندا وأستراليا، تقييمًا صارمًا لأداء GPT-3.5 و GPT-4 من OpenAI، وهما نموذجا اللغة الكبيران (LLMs) الأساسيان اللذان يشغلان ChatGPT. وكشف التحليل الشامل للدراسة أنه على الرغم من “الاتساق المثير للإعجاب” الذي أظهرته نماذج LLMs هذه في عمليات التفكير الخاصة بها، إلا أنها بعيدة كل البعد عن الحصانة ضد العيوب والتحيزات الشبيهة بالبشر.

أكد المؤلفون بذكاء أن هذا الاتساق المتأصل داخل أنظمة الذكاء الاصطناعي يمثل مزايا وعيوبًا على حد سواء. في حين أن الاتساق يمكن أن يبسط المهام بحلول واضحة وصيغة، إلا أنه يطرح مخاطر محتملة عند تطبيقه على القرارات الذاتية أو القائمة على التفضيل. في مثل هذه السيناريوهات، يمكن أن يؤدي تكرار التحيزات البشرية بواسطة الذكاء الاصطناعي إلى نتائج خاطئة ونتائج مشوهة.

أكد يانغ تشين، المؤلف الرئيسي للدراسة والأستاذ المساعد في إدارة العمليات في كلية إيفي للأعمال الموقرة، على أهمية تمييز التطبيقات المناسبة لأدوات الذكاء الاصطناعي. وحذر من أنه في حين أن الذكاء الاصطناعي يتفوق في المهام التي تتطلب حسابات دقيقة ومنطقية، فإن تطبيقه في عمليات اتخاذ القرارات الذاتية يتطلب دراسة متأنية ومراقبة يقظة.

محاكاة التحيزات البشرية في الذكاء الاصطناعي

للتعمق في وجود التحيزات البشرية داخل أنظمة الذكاء الاصطناعي، صمم الباحثون سلسلة من التجارب التي عكست التحيزات البشرية المعروفة بشكل شائع، بما في ذلك النفور من المخاطرة، والثقة المفرطة، وتأثير الوقف. لقد عرضوا على ChatGPT مطالبات مصممة لإثارة هذه التحيزات وقاموا بتحليل استجابات الذكاء الاصطناعي بدقة لتحديد ما إذا كان سيستسلم لنفس الفخاخ المعرفية التي يقع فيها البشر.

طرح العلماء أسئلة افتراضية، مقتبسة من تجارب علم النفس التقليدية، على نماذج LLMs. تم تأطير هذه الأسئلة في سياق التطبيقات التجارية الواقعية، التي تغطي مجالات مثل إدارة المخزون ومفاوضات الموردين. كان الهدف هو التأكد مما إذا كان الذكاء الاصطناعي سيحاكي التحيزات البشرية وما إذا كانت قابليته لهذه التحيزات ستستمر عبر مجالات الأعمال المختلفة.

وكشفت النتائج أن GPT-4 تفوق على سلفه، GPT-3.5، في حل المشكلات التي تحتوي على حلول رياضية صريحة. أظهر GPT-4 أخطاء أقل في السيناريوهات التي تتطلب حسابات الاحتمالات والاستدلال المنطقي. ومع ذلك، في المحاكاة الذاتية، مثل تحديد ما إذا كان سيتم متابعة خيار محفوف بالمخاطر لتأمين مكسب، غالبًا ما عكست روبوتات الدردشة التفضيلات غير العقلانية التي يظهرها البشر.

تفضيل الذكاء الاصطناعي لليقين

والجدير بالذكر أن الدراسة كشفت أن "GPT-4 يظهر تفضيلًا أقوى لليقين حتى من البشر". تؤكد هذه الملاحظة ميل الذكاء الاصطناعي إلى تفضيل النتائج الأكثر أمانًا والأكثر قابلية للتنبؤ بها عند مواجهة مهام غامضة. يمكن أن يكون الميل نحو اليقين مفيدًا في مواقف معينة، ولكنه قد يحد أيضًا من قدرة الذكاء الاصطناعي على استكشاف حلول مبتكرة أو التكيف مع الظروف غير المتوقعة.

والأمر الهام هو أن سلوكيات روبوتات الدردشة ظلت متسقة بشكل ملحوظ، بغض النظر عما إذا كانت الأسئلة مطروحة كمشكلات نفسية مجردة أو عمليات تجارية تشغيلية. يشير هذا الاتساق إلى أن التحيزات الملحوظة لم تكن مجرد نتيجة لأمثلة محفوظة ولكنها بالأحرى جانب جوهري من كيفية استدلال أنظمة الذكاء الاصطناعي ومعالجة المعلومات. وخلصت الدراسة إلى أن التحيزات التي أظهرها الذكاء الاصطناعي مضمنة داخل آليات التفكير الخاصة به.

كانت إحدى أكثر الاكتشافات المذهلة في الدراسة هي الطريقة التي قام بها GPT-4 في بعض الأحيان بتضخيم الأخطاء الشبيهة بالبشر. في مهام التحيز التأكيدي، قدم GPT-4 باستمرار استجابات متحيزة. علاوة على ذلك، فقد أظهر ميلًا أكثر وضوحًا نحو مغالطة اليد الساخنة مقارنة بـ GPT 3.5، مما يشير إلى ميل أقوى إلى إدراك الأنماط في العشوائية.

حالات تجنب التحيز

ومن المثير للاهتمام أن ChatGPT أظهر القدرة على التحايل على بعض التحيزات البشرية الشائعة، بما في ذلك إهمال المعدل الأساسي ومغالطة التكلفة الغارقة. يحدث إهمال المعدل الأساسي عندما يتجاهل الأفراد الحقائق الإحصائية لصالح المعلومات القصصية أو الخاصة بالحالة. تنشأ مغالطة التكلفة الغارقة عندما يتأثر اتخاذ القرارات بشكل غير مبرر بالتكاليف التي تم تكبدها بالفعل، مما يحجب الحكم الرشيد.

يفترض المؤلفون أن التحيزات الشبيهة بالبشر في ChatGPT تنبع من بيانات التدريب التي يتعرض لها، والتي تشمل التحيزات المعرفية والاستدلال التي يظهرها البشر. يتم تعزيز هذه الميول بشكل أكبر خلال عملية الضبط الدقيق، خاصة عندما تعطي ملاحظات الإنسان الأولوية للاستجابات المعقولة على الاستجابات المنطقية. في مواجهة المهام الغامضة، يميل الذكاء الاصطناعي إلى التوجه نحو أنماط التفكير البشري بدلاً من الاعتماد فقط على المنطق المباشر.

التنقل في تحيزات الذكاء الاصطناعي

للتخفيف من المخاطر المرتبطة بتحيزات الذكاء الاصطناعي، يدعو الباحثون إلى اتباع نهج حصيف لتطبيقه. يوصون باستخدام الذكاء الاصطناعي في المجالات التي تكمن فيها نقاط قوته، مثل المهام التي تتطلب دقة وحسابات غير متحيزة، على غرار تلك التي يؤديها الآلة الحاسبة. ومع ذلك، عندما تعتمد النتيجة على مدخلات ذاتية أو استراتيجية، تصبح الرقابة البشرية ذات أهمية قصوى.

يؤكد تشين على أنه "إذا كنت تريد دعمًا دقيقًا وغير متحيز في اتخاذ القرارات، فاستخدم GPT في المجالات التي تثق فيها بالفعل في الآلة الحاسبة." ويشير كذلك إلى أن التدخل البشري، مثل تعديل مطالبات المستخدم لتصحيح التحيزات المعروفة، أمر ضروري عند استخدام الذكاء الاصطناعي في السياقات التي تتطلب حكمًا دقيقًا وتفكيرًا استراتيجيًا.

تدعو مينا أنديابان، المؤلفة المشاركة في الدراسة والأستاذة المشاركة في الموارد البشرية والإدارة في جامعة ماكماستر في كندا، إلى معاملة الذكاء الاصطناعي كموظف يتخذ قرارات مهمة. وتؤكد على الحاجة إلى الرقابة والمبادئ التوجيهية الأخلاقية لضمان استخدام الذكاء الاصطناعي بمسؤولية وفعالية. قد يؤدي عدم تقديم مثل هذه التوجيهات إلى أتمتة التفكير الخاطئ، بدلاً من التحسن المطلوب في عمليات صنع القرار.

الآثار والاعتبارات

تترتب على نتائج الدراسة آثار عميقة على تطوير ونشر أنظمة الذكاء الاصطناعي عبر قطاعات متنوعة. إن الكشف عن أن الذكاء الاصطناعي عرضة للتحيزات الشبيهة بالبشر يؤكد على أهمية التقييم الدقيق لملاءمته لمهام محددة وتنفيذ الضمانات للتخفيف من المخاطر المحتملة.

يجب أن تكون المنظمات التي تعتمد على الذكاء الاصطناعي في اتخاذ القرارات على دراية باحتمالية التحيز واتخاذ خطوات لمعالجته. قد يتضمن ذلك توفير بيانات تدريب إضافية لتقليل التحيز، أو استخدام خوارزميات أقل عرضة للتحيز، أو تنفيذ رقابة بشرية لضمان أن قرارات الذكاء الاصطناعي عادلة ودقيقة.

تسلط الدراسة الضوء أيضًا على الحاجة إلى مزيد من البحث في أسباب وعواقب التحيز في الذكاء الاصطناعي. من خلال اكتساب فهم أفضل لكيفية تطوير أنظمة الذكاء الاصطناعي للتحيزات، يمكننا تطوير استراتيجيات لمنع حدوثها في المقام الأول.

توصيات لتنفيذ الذكاء الاصطناعي بمسؤولية

لضمان التنفيذ المسؤول والفعال لأنظمة الذكاء الاصطناعي، يجب مراعاة التوصيات التالية:

  • تقييم أنظمة الذكاء الاصطناعي بدقة بحثًا عن التحيزات المحتملة قبل النشر. يتضمن ذلك اختبار نظام الذكاء الاصطناعي على مجموعة متنوعة من مجموعات البيانات والسيناريوهات لتحديد أي مجالات قد يكون فيها عرضة للتحيز.
  • توفير بيانات تدريب إضافية لتقليل التحيز. كلما كانت بيانات التدريب أكثر تنوعًا وتمثيلية، قل احتمال تطوير نظام الذكاء الاصطناعي للتحيزات.
  • استخدام خوارزميات أقل عرضة للتحيز. بعض الخوارزميات أكثر عرضة للتحيز من غيرها. عند تحديد خوارزمية لمهمة معينة، من المهم مراعاة احتمالية التحيز فيها.
  • تنفيذ رقابة بشرية لضمان أن قرارات الذكاء الاصطناعي عادلة ودقيقة. يمكن أن تساعد الرقابة البشرية في تحديد وتصحيح أي تحيزات في قرارات الذكاء الاصطناعي.
  • وضع مبادئ توجيهية أخلاقية واضحة لاستخدام الذكاء الاصطناعي. يجب أن تتناول هذه المبادئ التوجيهية قضايا مثل العدالة والمساءلة والشفافية.

من خلال اتباع هذه التوصيات، يمكن للمؤسسات التأكد من استخدام أنظمة الذكاء الاصطناعي بطريقة مفيدة ومسؤولة. تعمل الرؤى المستقاة من هذا البحث كتذكير قيم بأنه في حين أن الذكاء الاصطناعي يحمل وعدًا هائلاً، فمن الضروري التعامل مع تنفيذه بحذر والتزام بالمبادئ الأخلاقية. عندها فقط يمكننا تسخير الإمكانات الكاملة للذكاء الاصطناعي مع الحماية من المخاطر المحتملة.