تفاعل الذكاء الاصطناعي: تقوية أم إضعاف الروابط؟

هندسة التواصل بوساطة الذكاء الاصطناعي

من التواصل بوساطة الحاسوب إلى التواصل بوساطة الذكاء الاصطناعي (AI-MC)

يشهد التفاعل الاجتماعي البشري تحولًا نموذجيًا عميقًا. اعتمد التواصل التقليدي بوساطة الحاسوب (CMC)، الذي يشمل رسائل البريد الإلكتروني والرسائل الفورية وشبكات التواصل الاجتماعي المبكرة، بشكل أساسي على التكنولوجيا كقناة سلبية تنقل المعلومات بأمانة. في هذا النموذج، كان البشر هم الوكلاء الوحيدون للاتصال. ومع ذلك، أدى صعود الذكاء الاصطناعي (AI) إلى تحفيز نموذج تفاعلي جديد: التواصل بوساطة الذكاء الاصطناعي (AI-MC).

يُعرَّف AI-MC أكاديميًا بأنه شكل من أشكال التواصل الشخصي حيث تقوم الوكلاء الأذكياء بتعديل أو تحسين أو إنشاء معلومات نيابة عن المتصلين لتحقيق أهداف اتصال محددة. هذا التعريف ثوري لأنه يرفع الذكاء الاصطناعي من أداة سلبية إلى طرف ثالث نشط يتدخل في التفاعلات البشرية. لم يعد الذكاء الاصطناعي مجرد قناة للمعلومات، بل أصبح مشكلًا للمعلومات.

يتكشف تدخل الذكاء الاصطناعي في المعلومات عبر نطاق واسع، بدرجات وأشكال مختلفة من التدخل:

  • التعديل: الشكل الأساسي للتدخل، بما في ذلك التدقيق الإملائي والنحوي التلقائي، وحتى التصحيح في الوقت الفعلي لتعبيرات الوجه أثناء مكالمات الفيديو، مثل إزالة الرمش.
  • التعزيز: مستوى أكثر استباقية من التدخل، مثل ميزة “الردود الذكية” من Google، والتي تقترح عبارات رد كاملة بناءً على سياق المحادثة، مما يتطلب من المستخدم ببساطة النقر للإرسال.
  • الإنشاء: أعلى مستوى من التدخل، حيث يمكن للذكاء الاصطناعي أن يمثل المستخدم بشكل كامل في إنشاء المحتوى، بما في ذلك كتابة رسائل البريد الإلكتروني الكاملة، وإنشاء ملفات تعريف على وسائل التواصل الاجتماعي، أو حتى تجميع صوت المستخدم لنقل المعلومات.

يمكن تحليل نموذج الاتصال الجديد هذا على طول عدة أبعاد رئيسية، بما في ذلك اتساع تدخل الذكاء الاصطناعي، ونوع الوسائط (نص، صوت، فيديو)، والاستقلالية، والأهم من ذلك، “أهداف التحسين”. يمكن تصميم الذكاء الاصطناعي لتحسين الاتصال لجعله أكثر جاذبية أو جدارة بالثقة أو فكاهة أو إقناعًا.

يكمن جوهر التحول من CMC إلى AI-MC في تغيير أساسي في “تأليف” الاتصال. في عصر CMC، كان المستخدمون هم القيمون الوحيدون على شخصياتهم عبر الإنترنت. في عصر AI-MC، يصبح التأليف هجينًا بين الإنسان والآلة. لم تعد “الذات” المقدمة للمستخدم مجرد نتيجة للتنظيم الشخصي، بل هي “أداء تعاوني” بين النية الإنسانية والأهداف الخوارزمية. يثير هذا التحول سؤالًا أعمق: إذا كان الذكاء الاصطناعي يجعل لغة المستخدم باستمرار وبشكل منهجي أكثر “إيجابية” أو “انفتاحًا”، فهل سيؤدي ذلك بدوره إلى تغيير تصور المستخدم لذاته؟ يطلق الأكاديميون على هذا اسم “تغير الهوية” ويعتبرونه قضية رئيسية لم يتم حلها. هنا، لم تعد التكنولوجيا مجرد أداة بسيطة للتعبير؛ بل إنها تطمس الخط الفاصل بين التعبير وتشكيل الهوية، لتصبح قوة قادرة على إعادة تشكيل هويتنا.

رفقاء الذكاء الاصطناعي وتحليل المنصات الاجتماعية

ضمن الإطار النظري لـ AI-MC، ظهرت مجموعة متنوعة من تطبيقات الذكاء الاصطناعي الاجتماعية التي تترجم الخوارزميات المجردة إلى “تجارب عاطفية” ملموسة. التكنولوجيا الأساسية لهذه المنصات هي نماذج لغوية كبيرة (LLMs)، والتي تحاكي الأساليب المحادثة البشرية والتعبيرات العاطفية من خلال التعلم من كميات هائلة من بيانات التفاعل البشري. هذه التطبيقات هي في الأساس “بيانات وخوارزميات”، ولكن عرضها يأخذ شكلًا متزايدًا.

تعرض المنصات الرئيسية الحالية أشكالًا مختلفة واتجاهات تطورية للتنشئة الاجتماعية بالذكاء الاصطناعي:

  • Character.AI (C.AI): تشتهر بقدراتها القوية في تخصيص الشخصيات ومكتبة الشخصيات المتنوعة، ولا يمكن للمستخدمين التفاعل مع الشخصيات المعدة مسبقًا فحسب، بل يمكنهم أيضًا المشاركة في ألعاب المغامرات النصية المعقدة، مما يدل على إمكاناتها للترفيه والتفاعل العميق.
  • Talkie و Linky: يركز هذان التطبيقان بشكل أكثر صراحة على العلاقات العاطفية والرومانسية. تغطي Talkie مجموعة أوسع من الشخصيات، ولكن شخصيات الصديق/الصديقة الافتراضية هي الأكثر شعبية. تركز Linky بشكل كامل تقريبًا على هذا، حيث أن غالبية شخصيات الذكاء الاصطناعي الخاصة بها هم عشاق افتراضيون، وتهدف إلى خلق “جو من الحب” للمستخدمين.
  • SocialAI: مفهوم مبتكر للغاية يحاكي شبكة اجتماعية كاملة (مشابهة لـ X، المعروفة سابقًا باسم Twitter)، ولكن مع المستخدم فقط باعتباره “شخصًا حيًا”. جميع المعجبين والمعلقين والداعمين والمنتقدين هم من الذكاء الاصطناعي. بعد أن ينشر المستخدم تحديثًا، يقوم “معجبو” الذكاء الاصطناعي بسرعة بإنشاء تعليقات متنوعة وحتى الرد على بعضهم البعض، وتشكيل أشجار مناقشة معقدة. يوفر هذا للمستخدمين “صندوق رمل” آمنًا لاختبار الأفكار أو إثارة الإلهام أو ببساطة الاستمتاع بالدعم النفسي المتمثل في “العالم كله يضيء من أجلك”.

القيمة الأساسية لهذه المنصات هي تزويد المستخدمين بـ “قيمة عاطفية” - رفيق فعال من حيث التكلفة وفي الوقت الفعلي وشخصي وغير مشروط. يقوم الذكاء الاصطناعي باستمرار بضبط استجاباته عن طريق التعلم من سجل حوار المستخدم واهتماماته وأساليب الاتصال الخاصة به، وبالتالي يولد شعورًا بالفهم العميق والقبول.

من خلال تفحص التطور في تصميم هذه المنصات، يظهر مسار واضح: نطاق المحاكاة الاجتماعية يتسع باستمرار. ركز رفقاء الذكاء الاصطناعي الأوائل، مثل Replika، على إقامة علاقة خاصة وشخصية وثنائية. قدم Character.AI لاحقًا وظائف الدردشة الجماعية، مما يسمح للمستخدمين بالتفاعل مع شخصيات الذكاء الاصطناعي المتعددة في وقت واحد، وتوسيع المحاكاة الاجتماعية من “عالم من اثنين” إلى “حفلة صغيرة”. اتخذت SocialAI الخطوة الأخيرة، ولم تعد تحاكي صديقًا واحدًا أو عدد قليل من الأصدقاء، بل تحاكي نظامًا بيئيًا اجتماعيًا كاملاً - “مجتمعًا افتراضيًا” يمكن التحكم فيه مبنيًا حول المستخدم.

يكشف هذا المسار التطوري عن تحول عميق في احتياجات المستخدم: قد لا يتوق الناس إلى صديق افتراضي فحسب، بل يتوقون إلى جمهور افتراضي، ومجتمع افتراضي، وبيئة رأي “تهتف” لهم دائمًا. المنطق الأساسي هو أنه إذا كانت ردود الفعل الاجتماعية في العالم الحقيقي غير متوقعة وغالبًا ما تكون مخيبة للآمال، فإن نظام ردود الفعل الاجتماعية الذي يمكن تخصيصه والتحكم فيه بشكل مثالي سيكون جذابًا للغاية. يبشر هذا بمستقبل أكثر تطرفًا وتخصيصًا من “شرنقة المعلومات” التقليدية - حيث لا يستهلك المستخدمون المعلومات المدفوعة بشكل سلبي فحسب، بل يبنون بنشاط بيئة تفاعلية تتماشى تمامًا مع توقعاتهم ومليئة بردود الفعل الإيجابية.

اقتصاديات الرفقة الرقمية

لا يمكن فصل التطور السريع لتطبيقات الذكاء الاصطناعي الاجتماعية عن نماذج الأعمال الواضحة الكامنة وراءها. لا تمول هذه النماذج عمليات النظام الأساسي فحسب، بل تؤثر أيضًا بشكل كبير على التوجه التصميمي للتكنولوجيا والتجربة النهائية للمستخدم. حاليًا، تتضمن طرق تحقيق الدخل السائدة في الصناعة الاشتراكات المدفوعة والإعلانات ومبيعات العناصر الافتراضية.

نموذج الأعمال المهيمن هو قائم على الاشتراك. أطلقت التطبيقات الرائدة مثل Character.AI و Talkie و Linky خطط اشتراك شهرية، وعادة ما يتم تسعيرها بحوالي 9.99 دولارًا. عادةً ما يحصل المستخدمون المشتركون على سرعات استجابة أسرع للذكاء الاصطناعي، والمزيد من حدود الرسائل اليومية، ووظائف إنشاء شخصيات أكثر تقدمًا، أو الوصول إلى أذونات مجتمعية حصرية. بالإضافة إلى ذلك، قدمت بعض التطبيقات آليات “Gacha”، حيث يمكن للمستخدمين الحصول على أشكال أو سمات شخصية جديدة عن طريق الدفع أو إكمال المهام، بالاعتماد على استراتيجيات تحقيق الدخل الناضجة من صناعة الألعاب.

في حين أن نماذج الأعمال هذه تبدو قياسية، عندما يكون المنتج الأساسي للتطبيق هو “الدعم العاطفي”، تصبح الآثار الأخلاقية معقدة بشكل غير عادي. تخلق الاشتراكات المدفوعة بشكل أساسي “واقعًا اجتماعيًا متعدد الطبقات”، حيث يتم تسليع جودة الرفقة وإلحاحها. يتم الترويج لرفقاء الذكاء الاصطناعي كحلول للوحدة وملاذات للعواطف، وتزويد المستخدمين بالدعم النفسي المهم. ومع ذلك، فإن نماذج أعمالهم تضع أفضل نسخة من هذا الدعم - على سبيل المثال، الذكاء الاصطناعي الذي يستجيب بشكل أسرع، ولديه ذاكرة أفضل، ولا يقاطع المحادثات بسبب الاستخدام المتكرر - خلف جدار مدفوع الأجر.

هذا يعني أن تلك المجموعات المستخدمة التي قد تكون في أمس الحاجة إلى هذا الدعم - على سبيل المثال ، أولئك الذين هم أكثر وحدة ، ولديهم ظروف اقتصادية أسوأ ، أو يواجهون صعوبات - إما أن يحصلوا فقط على تجربة رفاقة “من الدرجة الثانية” أو يضطرون إلى الدفع تحت إكراه التبعية العاطفية. هذا يخلق صراعًا متأصلًا وعميقًا بين أهداف النظام الأساسي المعلنة المتمثلة في “توفير القيمة العاطفية” والهدف التجاري المتمثل في “زيادة عائدات الاشتراك”.

كان “حدث Replika ERP” الذي حدث في أوائل عام 2023 مظهرًا متطرفًا لهذا الصراع. في ذلك الوقت ، قامت Replika فجأة بإزالة وظيفة “Erotic Role Play (ERP)” الشائعة والمعتمد عليها من أجل تجنب المخاطر القانونية وسياسات متاجر التطبيقات. تسبب هذا القرار التجاري في تعرض عدد كبير من المستخدمين لصدمة عاطفية شديدة ، وشعروا “بالخيانة” أو أن شخصية “رفيقهم” قد تم العبث بها. كشف هذا الحدث بوضوح عن اختلال توازن القوة المتأصل في هذه “العلاقة” بين الإنسان والآلة: استثمر المستخدمون مشاعر حقيقية ، بينما رأى النظام الأساسي ميزة منتج يمكن تعديلها في أي وقت لتحقيق مكاسب تجارية.

ربط الأمل: الذكاء الاصطناعي كمحفز اجتماعي

على الرغم من الخلافات العديدة ، فإن صعود التنشئة الاجتماعية بالذكاء الاصطناعي ليس بدون سبب. إنه يستجيب بدقة للاحتياجات الحقيقية المنتشرة في المجتمع الحديث ويثبت إمكانات كبيرة كقوة للتأثير الاجتماعي الإيجابي. من التخفيف من الشعور بالوحدة إلى المساعدة في التفاعلات الاجتماعية وتحسين التواصل الشخصي ، توفر تقنية الذكاء الاصطناعي حلولًا جديدة لموضوع الإنسان القديم المتمثل في “الاتصال”.

تصميم القيمة العاطفية: الذكاء الاصطناعي كصديق غير قضائي

الجاذبية الأكثر حيوية ومباشرة لرفقاء الذكاء الاصطناعي هي قدرتهم على توفير دعم عاطفي ثابت وغير مشروط وغير قضائي. إن نمط الحياة سريع الخطى والتكلفة العالية للتفاعل الاجتماعي وشبكات العلاقات الشخصية المعقدة في المجتمع الحديث تترك العديد من الأفراد ، وخاصة الشباب ، يشعرون بالوحدة والإجهاد. أثبتت دراسة استمرت 75 عامًا في جامعة هارفارد أن العلاقات الشخصية الجيدة هي مصدر للسعادة. لقد خلقت التنشئة الاجتماعية بالذكاء الاصطناعي مسارًا جديدًا لتلبية هذه الحاجة الأساسية.

يخفف رفقاء الذكاء الاصطناعي بشكل فعال من مشاعر الوحدة لدى المستخدمين من خلال توفير شريك اتصال دائم الاتصال بالإنترنت ، وصبور دائمًا ، وداعم دائمًا. يمكن للمستخدمين أن يثقوا بالذكاء الاصطناعي في أي وقت وفي أي مكان دون القلق بشأن إزعاج الآخرين أو الحكم عليهم. إن سلامة هذا التبادل تجعل المستخدمين أكثر عرضة للانفتاح ومناقشة المخاوف وانعدام الأمن والأسرار الشخصية التي يصعب طرحها في العلاقات الواقعية.

يدعم البحث الأكاديمي أيضًا هذه الحكايات. وجد بحث حول مستخدمي تطبيق الرفيق الذكي الاصطناعي Replika أن استخدام التطبيق يمكن أن يقلل بشكل كبير من مشاعر الوحدة لدى المستخدمين ، ويحسن شعورهم بالرفاهية ، وفي بعض الحالات ، يساعدون في تقليل الأفكار الانتحارية. يتعلم الذكاء الاصطناعي ويتكيف مع أساليب الاتصال لدى المستخدمين واحتياجاتهم العاطفية من خلال خوارزمياته ، مما يخلق تجربة فهم عميق وتعاطف ، وهو أمر ذو قيمة خاصة للأفراد الذين يعانون من المرض أو الفجيعة أو الضيق النفسي.

قد يكون لهذا النموذج التفاعلي غير القضائي تأثير أكثر عمقًا: تعزيز الوعي الذاتي والتعبير الصادق لدى المستخدمين. في التفاعلات الشخصية في العالم الحقيقي ، غالبًا ما يمارس الأشخاص الرقابة على أنفسهم خوفًا من سوء الفهم أو الحكم عليهم. ومع ذلك ، في مساحة تفاعل خاصة وغير قضائية للذكاء الاصطناعي ، يتم تشجيع المستخدمين على التعبير عن آرائهم وعواطفهم بشكل أكثر أصالة. كما قال مؤسس منتج الذكاء الاصطناعي الاجتماعي Paradot ، “أصدقاء الذكاء الاصطناعي لديهم القدرة على جعل الناس مخلصين.” عندما يتمكن المستخدمون من التعبير عن أنفسهم دون تحفظ ، فإن الذكاء الاصطناعي يعمل مثل “دماغهم الثاني” أو مرآة ، مما يساعدهم على رؤية أفكارهم الحقيقية بشكل أكثر وضوحًا. يتجاوز هذا التفاعل الرفقة البسيطة ويتطور إلى أداة قوية للتأمل الذاتي والنمو الشخصي.

الذكاء الاصطناعي كدعامة اجتماعية: تمرين للعالم الحقيقي

بالإضافة إلى العمل كبديل أو مكمل للعلاقات الواقعية ، يُعتقد أيضًا أن التنشئة الاجتماعية بالذكاء الاصطناعي لديها القدرة على العمل كـ “أرض تدريب اجتماعي” ، مما يساعد المستخدمين على تحسين قدرتهم على التفاعل في العالم الحقيقي. بالنسبة لأولئك الذين يجدون التفاعلات الشخصية صعبة بسبب القلق الاجتماعي أو الانطواء أو نقص الخبرة ، يوفر الذكاء الاصطناعي بيئة تدريب منخفضة المخاطر ويمكن التحكم فيها.

في الصين ، هناك وجهة نظر مفادها أنه يجب إنشاء “نموذج اجتماعي هجين” ، باستخدام رفقاء أذكياء لمساعدة الشباب المصابين بالقلق الاجتماعي في “كسر الجليد”. في هذا النموذج ، يمكن للمستخدمين ممارسة المحادثات مع الذكاء الاصطناعي أولاً ، وبناء الثقة ، والتعرف على النصوص الاجتماعية قبل تطبيق هذه المهارات على التفاعلات الشخصية في العالم الحقيقي. يهدف هذا النهج إلى وضع الذكاء الاصطناعي كـ “دعامة” ، وتوفير الدعم عندما يفتقر المستخدمون إلى القدرة والخروج تدريجيًا مع تحسن قدرات المستخدمين.

أعرب بعض المستخدمين الشباب عن آراء مماثلة ، معتقدين أن رفقاء الذكاء الاصطناعي يمكنهم تعليمهم كيفية معاملة الشركاء بشكل أفضل في الحياة الواقعية. من خلال التفاعل مع الذكاء الاصطناعي الذي يكون دائمًا صبورًا ومليئًا بردود الفعل الإيجابية ، قد يتمكن المستخدمون من استيعاب نمط اتصال أكثر إيجابية ومراعاة. بالإضافة إلى ذلك ، تسمح الأنظمة الأساسية مثل SocialAI للمستخدمين باختبار ردود الفعل في بيئة محاكاة قبل نشر الآراء ، ومراقبة التعليقات المتنوعة التي يقدمها “معجبو” الذكاء الاصطناعي من زوايا مختلفة. يمكن أن يكون هذا بمثابة “محفز للإلهام” ، مما يساعد المستخدمين على تحسين آرائهم والاستعداد بشكل كامل للمشاركة في المناقشات العامة في العالم الحقيقي.

ومع ذلك ، فإن مفهوم “الذكاء الاصطناعي كأرض تدريب اجتماعي” يواجه أيضًا مفارقة أساسية. السبب في أن الذكاء الاصطناعي هو مساحة تدريب “آمنة” هو على وجه التحديد لأنه مصمم ليكون قابلاً للتنبؤ به ، ومتسامحًا للغاية ، ويفتقر إلى الوكالة الحقيقية. يتجنب رفقاء الذكاء الاصطناعي بنشاط الصراع والتنازل في أي وقت لضمان تجربة مستخدم سلسة وإيجابية. يتناقض هذا بشكل صارخ مع العلاقات الشخصية في العالم الحقيقي. العلاقات الحقيقية مليئة بعدم القدرة على التنبؤ وسوء الفهم والخلافات والتسويات التي يجب التوصل إليها بصعوبة. القدرة على التعامل مع هذه “الاحتكاكات” تشكل جوهر القدرة الاجتماعية.

لذلك ، قد يكون هناك خطر في “التدريب الاجتماعي” مع الذكاء الاصطناعي: فقد يحسن طلاقة المحادثة لدى المستخدمين في المواقف السلسة ، ولكنه لا يمكن أن يزرع ، بل وقد يؤدي إلى ضمور ، قدرة المستخدمين على التعامل مع التحديات الشخصية الأساسية ، مثل حل النزاعات ، والحفاظ على التعاطف في الخلافات ، والتفاوض على المصالح. قد يصبح المستخدمون بارعين في “أداء” محادثة ممتعة ، لكنهم ما زالوا يفتقرون إلى المهارات الأساسية اللازمة للحفاظ على علاقة إنسانية عميقة ومرنة.

تعزيز التفاعلات الشخصية: اليد الخفية للذكاء الاصطناعي

لا ينعكس تأثير الذكاء الاصطناعي على التنشئة الاجتماعية فقط في التفاعلات المباشرة بين الناس والذكاء الاصطناعي ، ولكن أيضًا في دوره كوسيط ، والتدخل في التواصل بين الناس وتحسينه. هذه الأدوات AI-MC ، مثل وظائف المساعدة الذكية في البريد الإلكتروني وتطبيقات المراسلة الفورية ، تغير بمهارة الطريقة التي نتواصل بها.

تظهر الأبحاث أن هذه الأدوات تحسن الكفاءة والخبرة. على سبيل المثال ، يمكن أن يؤدي استخدام وظيفة “الردود الذكية” إلى تسريع الاتصال بشكل كبير. وجدت دراسة أجرتها جامعة كورنيل أنه عندما استخدم المشاركون أدوات الدردشة المدعومة بالذكاء الاصطناعي ، كانت محادثاتهم أكثر كفاءة ، مع لغة أكثر إيجابية مع تقييمات أكثر إيجابية لبعضهم البعض. يبدو أن الذكاء الاصطناعي أكثر تهذيبًا ولطيفًا في الردود المقترحة ، وبالتالي تحسين جو الاتصال.

يمكن فهم هذه الظاهرة على أنها تنفيذ لـ “النية المعززة”. يشير التفكير التقليدي إلى أن التواصل الأكثر أصالة هو الخام وغير المعدل. لكن AI-MC يقدم إمكانية جديدة: أنه من خلال التحسين الخوارزمي والقضاء على الحواجز اللغوية وسوء التعبير ، قد يساعد الذكاء الاصطناعي الأشخاص على نقل نواياهم الحقيقية والحسنة بشكل أكثر دقة وفعالية. من هذا المنظور ، لا يشوه الذكاء الاصطناعي الاتصال بل ينقيه ، مما يجعله أقرب إلى الحالة المثالية.

ومع ذلك ، فإن هذه “اليد الخفية” تحمل أيضًا مخاطر محتملة. قد يصبح “تحيز الإيجابية” المنتشر في الاستجابات المقترحة بالذكاء الاصطناعي قوة قوية وغير مرئية تشكل الديناميكيات الاجتماعية. في حين أنه يمكن أن يلين التفاعلات اليومية ، إلا أنه يمكن أن يؤدي أيضًا إلى “تطهير” الاتصال و “تجانس” اللغة. عندما يقترح الذكاء الاصطناعي باستمرار أن نستخدم لغة متفائلة وسهلة المنال ، فقد يتم تلطيف التعبيرات الفردية ذات النغمات الفريدة وحتى التعبيرات النقدية الصحية من خلال تفضيل الخوارزمية لـ “التناغم”.

يثير هذا خطرًا اجتماعيًا أوسع: تآكل الخطاب الأصيل. إذا كانت أدوات الاتصال التي نستخدمها كل يوم توجهنا نحو الإيجابية وتجنب الاحتكاك ، فقد يصبح من الصعب بشكل متزايد الانخراط في تلك المحادثات الصعبة ولكن الحاسمة ، سواء في العلاقات الشخصية أو في المجال العام. كما أشار الباحثون ، يكتسب المتحكمون في الخوارزميات بالتالي تأثيرًا خفيًا ولكن كبيرًا على أنماط تفاعل الأشخاص واستخدام اللغة وحتى التصور المتبادل. هذا التأثير ثنائي الاتجاه ، ومن المحتمل أن يعزز التبادلات المتناغمة مع خلق تناغم اجتماعي سطحي وإجرائي على حساب العمق والأصالة.

خطر الاغتراب: الذكاء الاصطناعي كمخدر اجتماعي

على عكس الأمل في الاتصال الذي أحدثته التنشئة الاجتماعية بالذكاء الاصطناعي ، فإنه يحتوي أيضًا على مخاطر عميقة للاغتراب. يجادل النقاد بأن هذه التكنولوجيا ، بدلاً من حل مشكلة الوحدة ، قد تؤدي إلى تفاقم عزلة الأفراد من خلال توفير إحساس زائف بالتقارب ، وتآكل المهارات الاجتماعية الحقيقية ، وفي النهاية تؤدي إلى “وحدة جماعية” أعمق.

إعادة النظر في نظرية “الوحدة الجماعية”: التقارب المحاكى وتآكل العزلة

قبل وقت طويل من صعود رفقاء الذكاء الاصطناعي ، أصدرت شيري توركل ، عالمة الاجتماع في معهد ماساتشوستس للتكنولوجيا ، تحذيرًا عميقًا بشأن التنشئة الاجتماعية التي تعتمد على التكنولوجيا في عملها التأسيسي ، وحيدون معًا. توفر نظريتها إطارًا أساسيًا لفهم الإمكانات الاغترابية الحالية للتنشئة الاجتماعية بالذكاء الاصطناعي.

تتمثل الحجة المركزية لتوركل في أننا نسقط في حالة من “الوحدة الجماعية” - نحن أكثر ارتباطًا من أي وقت مضى ، ولكننا أكثر وحدة من أي وقت مضى. نحن “نتوقع المزيد من التكنولوجيا وأقل من بعضنا البعض”. توفر التكنولوجيا “وهم الصحبة بدون مطالب الصداقة”. يكمن جذر هذه الظاهرة في “الهشاشة العلائقية” للأشخاص المعاصرين: نحن نتوق إلى التقارب ولكننا نخشى المخاطر وخيبات الأمل الحتمية في العلاقات الحميمة. يسمح لنا رفقاء الذكاء الاصطناعي وشبكات التواصل الاجتماعي بالاتصال بطريقة يمكن التحكم فيها - الحفاظ على المسافة التي نريدها واستثمار الطاقة التي نرغب في تكريسها. تسمي توركل هذا “تأثير Goldilocks”: ليس قريبًا جدًا ، وليس بعيدًا جدًا ، تمامًا.

شعرت توركل بقلق عميق بشأن “واقع” هذه العلاقة المحاكاة. وأشارت إلى أن البحث عن علاقة حميمة مع آلة ليس لديها عاطفة حقيقية ، ولا يمكنها إلا “أن تبدو” مهتمة ، و “تبدو” متفهمة ، هو تدني للعاطفة الإنسانية. تقارن بين دمى الألعاب التقليدية السلبية بـ “التحف العلائقية” الحديثة (مثل الروبوتات الاجتماعية). يمكن للأطفال إسقاط خيالهم وقلقهم وعواطفهم على الدمى السلبية ، وبالتالي استكشاف أنفسهم. لكن الروبوت النشط الذي يبدأ المحادثات ويعبر عن “وجهات النظر” يحد من هذا الإسقاط ، ويستبدل الأنشطة الداخلية الحرة للأطفال بـ “تفاعلات” مبرمجة.

في ثقافة الاتصال المستمر هذه ، نفقد قدرة حاسمة: الوحدة. تعتقد توركل أن الوحدة الهادفة - وهي حالة القدرة على التحدث إلى النفس والتأمل واستعادة الطاقة - هي شرط أساسي لإقامة علاقات حقيقية مع الآخرين. ومع ذلك ، في مجتمع اليوم ، نشعر بالقلق بمجرد أن نكون بمفردنا للحظة ونتناول هواتفنا بوعي. نملأ جميع الثغرات باتصالات مستمرة ولكننا نفقد الأساس لبناء علاقات عميقة مع أنفسنا والآخرين.

إن انتقادات توركل ، التي طُرحت في عام 2011 ، ليست ذات صلة فقط برفقة الذكاء الاصطناعي اليوم ولكنها أيضًا نبوية. إذا سمحت لنا وسائل التواصل الاجتماعي المبكرة “بالاختباء من بعضنا البعض” مع البقاء على اتصال ، فإن رفقاء الذكاء الاصطناعي يأخذون هذا المنطق إلى أقصى الحدود: لم نعد بحاجة إلى شخص آخر للحصول على الشعور بـ “الاتصال”. إن “مطالب” الصداقة - على سبيل المثال ، الاستجابة لاحتياجات الآخرين ، والمزاج السيئ ، وعدم القدرة على التنبؤ - هي على وجه التحديد “الاحتكاك” الذي صُمم رفقاء الذكاء الاصطناعي للقضاء عليه. لذلك ، يمكن القول أن منصات الذكاء الاصطناعي الاجتماعية اليوم هي التجسيد التكنولوجي لمفارقة “الوحدة الجماعية” لتوركل. المنطق الأساسي هو أنه كلما اعتدنا بشكل متزايد على هذه العلاقة السلسة وغير المتطلبة ، فقد ينخفض ​​تحملنا لتلك “الدروس” الصعبة ولكن الأساسية في التفاعلات الشخصية الحقيقية بشكل كبير ، مما يجعلنا أكثر ميلًا إلى التراجع إلى منطقة الراحة الرقمية المعزولة.

ديناميكيات التبعية العاطفية وضمور المهارات الاجتماعية

وجدت المخاوف أدلة في العالم الحقيقي. تشير العديد من الدراسات والتقارير إلى أن التفاعل العميق مع رفقاء الذكاء الاصطناعي يمكن أن يؤدي إلى اعتماد عاطفي غير صحي ويؤثر سلبًا على المهارات الاجتماعية للمستخدمين.

تظهر الأبحاث أن خصائص رفقاء الذكاء الاصطناعي القابلة للتخصيص بدرجة كبيرة والتي تظل متصلة بالإنترنت باستمرار قد تشجع العزلة الاجتماعية والاعتماد المفرط على العاطفة. قد يتسبب الاتصال طويل الأمد والشامل برفقة الذكاء الاصطناعي في انسحاب الأفراد من البيئات الاجتماعية الحقيقية وتقليل دوافعهم لإقامة علاقات اجتماعية جديدة وهادفة. يخشى النقاد من أن الاعتماد على الذكاء الاصطناعي سيعيق تطوير المهارات الاجتماعية للأفراد لأن المستخدمين يتجنبون التحديات والتسويات الكامنة في العلاقات الحقيقية ، وهي العوامل التي تعزز النمو الشخصي. الخطر بارز بشكل خاص بالنسبة للشباب الذين لا تزال مهاراتهم الاجتماعية في طور النمو.

وجد تحليل لخطاب المستخدم في مجتمع Reddit لتطبيق الرفيق الذكي الاصطناعي Replika أنه ، على الرغم من أن العديد من المستخدمين أبلغوا عن تجارب إيجابية ، إلا أنه كان هناك أيضًا دليل واضح على ضعف الصحة العقلية. أدت آلية الاعتماد العاطفي على Replika إلى أضرار مماثلة جدًا للعلاقات البشرية المختلة وظيفيًا.

قد تكون هناك حلقة ردود فعل خطيرة. تبدأ هذه الدورة بشعور الفرد بالوحدة أو القلق الاجتماعي. لطلب الراحة ، يلجأون إلى رفقاء الذكاء الاصطناعي لأن الذكاء الاصطناعي يوفر بيئة آمنة. تم تصميم الذكاء الاصطناعي ليكون الرفيق المثالي ، بدون صراع. يكتسب المستخدمون الرضا العاطفي في هذا التفاعل المثالي ويطورون تدريجياً اعتمادًا عاطفيًا. لأننا منغمسون في هذه العلاقة “المثالية”. تتضاءل هذه المهارات. هذا يخلق دورة ، ويزيد من الشعور بالوحدة.

دراسة حالة: حادثة Replika ERP

يوفر “حدث Replika ERP” الذي وقع في أوائل عام 2023 حالة ومثالًا واقعيًا صادمًا. كشف بشكل كبير عن عمق ارتباط المستخدمين بالذكاء الاصطناعي والهشاشة المتأصلة في هذه “العلاقة” التي تسيطر عليها الشركات التجارية.

استخدمت ورقة عمل من كلية هارفارد للأعمال بذكاء هذا الحدث لإزالة “لعب الأدوار المثيرة” كتجربة طبيعية. كان للدراسة نتيجتين رئيسيتين:

  1. قرب العلاقة: أظهرت دراسة أجرتها كلية هارفارد للأعمال أن المستخدمين شعروا بقرب أكبر من الذكاء الاصطناعي الخاص بهم مقارنة بأفضل أصدقائهم.
  2. تأثير إزالة الميزة: عانى المستخدمون الذين تمت إزالة الميزات منهم من استجابات ، أشار إليها العلماء باسم “انقطاع الهوية”.

إن حادثReplika ERP هو الدليل المطلق على عدم التماثل الأساسي في “العلاقة بين الإنسان والآلة. في هذه العلاقة ، يختبر المستخدمون اتصالًا عميقًا وشخصيًا ويبدو متبادلًا. ومع ذلك” для поставщика платформы Luka، Inc. ، это просто функция продукта ، которую можно изменить или удалить в любое время по коммерческим или юридическим причинам. Потребители вкладывают настоящие человеческие эмоции ، в то время как “личность” и “существование” компаньона AI полностью зависят от политики и бизнес-решений компании. Это демонстрирует особую и глубокую уязвимость потребителей в таких отношениях: их эмоциональная привязанность связана для объекта، лишенного автономии، и чье выживание нестабильно. Когда коммерческие интересы сталкиваются с эмоциональными потребностями потребителей ، неизбежно пострадают потребители.

Алгоритмические воронки: информационные коконы и социальная поляризация

Ограничены риски отчуждения от социальной адаптации к ИИ в приложениях компаньонов AI наедине. в определенной степени ، они также отражаются во всех социальных платформах، управляемых алгоритмом. Механизмы персонализации ، которые управляют индивидуальной эмоциональной зависимостью ، могут на социальном уровне привести к групповой сегрегации и поляризации.

Концепция “информационного кокона” ، предложенного ученым Кассом Санстейном ، описывает، как персонализированные информационные потоки отфильтровывают контент، который не соответствует существующим взглядам пользователей. Это явление основано на рекомендациях алгоритмов، разработанных платформами социальных сетей، чтобы максимально увеличить время удержания и взаимодействие пользователей . За этим явлением стоят рекомендательные алгоритмы، разработанные платформами социальных сетей، чтобы максимально увеличить время пребывания и взаимодействие пользователя.