هوش مصنوعی پیشرفته در بازی تقلید، بهتر از انسان

بازنگری معیار: پیچ و تابی مدرن در دیدگاه تورینگ

تلاش برای تعیین اینکه آیا یک ماشین واقعاً می‌تواند ‘فکر’ کند، دهه‌هاست که دانشمندان کامپیوتر و فیلسوفان را مجذوب خود کرده است. در قلب این بحث اغلب مفهوم بنیادینی نهفته است که توسط Alan Turing، ریاضیدان و رمزگشای درخشان بریتانیایی که کارش سنگ بنای محاسبات مدرن را گذاشت، ارائه شد. Turing سناریویی را متصور شد که اکنون به عنوان آزمون تورینگ (Turing Test) مشهور است، جایی که یک بازجوی انسانی درگیر مکالمات متنی با دو موجودیت نادیده - یکی انسان، یکی ماشین - می‌شود. معیار حیاتی موفقیت ماشین چیست؟ توانایی آن در فریب دادن بازجو برای باور اینکه او شرکت‌کننده انسانی است. Turing فرض کرد که اگر بازجو نتواند به طور قابل اعتمادی ماشین را از شخص تشخیص دهد، می‌توان ماشین را قادر به رفتار هوشمندانه‌ای شبیه به انسان دانست. در حالی که آزمون اصلی با انتقاداتی در مورد کفایت آن به عنوان معیار واقعی آگاهی یا درک مواجه شده است، ایده اصلی آن - ارزیابی توانایی هوش مصنوعی در تکرار قانع‌کننده تعامل انسانی - همچنان یک معیار قدرتمند باقی مانده است.

اکنون، محققان از دانشگاه کالیفرنیا، سن دیگو (University of California, San Diego)، جان تازه‌ای به این ارزیابی کلاسیک دمیده‌اند و یک تغییر جذاب را برای چشم‌انداز پیچیده هوش مصنوعی امروزی معرفی کرده‌اند. مطالعه آنها پیشگام یک تکرار سه‌جانبه از آزمون تورینگ است که پیچیدگی و شاید پویایی واقع‌بینانه‌تری را به ارزیابی اضافه می‌کند. این فقط در مورد تشخیص یک هوش مصنوعی از یک انسان نبود؛ بلکه شامل رقص پیچیده‌تری از تعامل و فریب بود که سیستم‌های هوش مصنوعی معاصر را در هنر تقلید به محدودیت‌های خود می‌رساند. یافته‌ها نشان می‌دهد که پیشرفته‌ترین مدل‌های هوش مصنوعی نه تنها به آستانه مکالمه شبیه انسان نزدیک می‌شوند؛ بلکه در برخی زمینه‌ها، ممکن است از آن فراتر رفته و گاهی اوقات انسانی‌تر از خود انسان‌ها به نظر برسند.

میدان نبرد: قرار دادن انسان‌ها در برابر هوش مصنوعی پیشرفته

طرح آزمایشی که توسط تیم UC San Diego ساخته شد، مشخص و دقیق بود. هر دور تعامل شامل یک سه‌گانه بود: دو شرکت‌کننده انسانی و یک مدل هوش مصنوعی. به انسان‌ها یک هدف واحد و چالش‌برانگیز محول شد: پس از یک دوره مکالمه، تعیین کنند که کدام یک از دو مخاطب نادیده آنها هوش مصنوعی و کدام یک انسان دیگر است. این تنظیم ذاتاً در مقایسه با آزمون تورینگ اصلی یک‌به‌یک‌به‌یک، مخاطرات را افزایش می‌دهد.

برای تسهیل این تعیین، شرکت‌کنندگان در دو گفتگوی متنی همزمان و موازی شرکت کردند - یکی با انسان پنهان، دیگری با هوش مصنوعی پنهان. به آنها یک پنجره زمانی مختصر پنج دقیقه‌ای برای هر دور اختصاص داده شد. در این بازه زمانی، داوران انسانی آزادی کامل داشتند. آنها می‌توانستند از هر استراتژی پرسشی استفاده کنند، با هر موضوعی تحقیق کنند، یا از هر تاکتیک مکالمه‌ای که برای کشف ماهیت واقعی شرکای چت خود مؤثر می‌دانستند، استفاده کنند. کوتاهی پنجره تعامل لایه دیگری از چالش را اضافه می‌کند، توانایی هوش مصنوعی را برای ایجاد سریع یک شخصیت قانع‌کننده و حفظ آن تحت بررسی آزمایش می‌کند، در حالی که توانایی انسان را برای قضاوت سریع و دقیق بر اساس داده‌های مکالمه محدود نیز آزمایش می‌کند. پس از دوره تعامل پنج دقیقه‌ای، لحظه حقیقت فرا رسید: شرکت‌کنندگان انسانی رأی خود را اعلام کردند و مشخص کردند که کدام موجودیت را هوش مصنوعی می‌دانند.

محققان به یک سیستم هوش مصنوعی واحد تکیه نکردند. در عوض، آنها مجموعه‌ای متنوع را گردآوری کردند که نماینده دوره‌ها و قابلیت‌های مختلف در توسعه هوش مصنوعی بودند:

  • ELIZA: یک چت‌بات پیشگام که توسط Joseph Weizenbaum نزدیک به شش دهه پیش توسعه یافت (نه 80 سال پیش همانطور که در منبع ذکر شده، ELIZA به اواسط دهه 1960 بازمی‌گردد). اگرچه با استانداردهای امروزی ابتدایی است و به تطبیق الگو و اسکریپت‌های ساده متکی است، ELIZA به عنوان یک مبنای تاریخی عمل کرد و نماینده تلاش‌های اولیه در هوش مصنوعی مکالمه‌ای بود.
  • Meta’s Llama 3.1-405B: یک مدل زبان بزرگ (LLM) قدرتمند و معاصر از Meta AI که به دلیل قابلیت‌های پیچیده تولید متن و استدلال شناخته شده است. گنجاندن آن نشان‌دهنده وضعیت فعلی هنر از یک آزمایشگاه تحقیقاتی بزرگ هوش مصنوعی است.
  • OpenAI’s GPT-4o: جدیدترین مدل چندوجهی منتشر شده عمومی از OpenAI در زمان مطالعه، که به دلیل سرعت، کارایی و توانایی‌های مکالمه‌ای بهبود یافته در مقایسه با تکرارهای قبلی GPT شناخته شده است.
  • OpenAI’s GPT-4.5: ظاهراً یک نسخه پیشرفته‌تر، شاید منتشر نشده یا داخلی از سری مدل‌های پرچمدار OpenAI. گنجاندن آن نشان‌دهنده دسترسی به مدل‌هایی است که به طور بالقوه مرزها را فراتر از سیستم‌های در دسترس عموم جابجا می‌کنند.

این انتخاب به محققان اجازه داد تا نه تنها هوش مصنوعی مدرن را در برابر انسان‌ها، بلکه در برابر یک معیار تاریخی و در برابر سطوح مختلف پیچیدگی هوش مصنوعی معاصر مقایسه کنند. سوال اصلی باقی ماند: آیا این ماشین‌ها، به ویژه LLM های پیشرفته، می‌توانند با موفقیت در این معمای مکالمه‌ای سه‌جانبه حرکت کنند و به عنوان انسان پذیرفته شوند؟

استراتژی شخصیت: چگونه GPT-4.5 به موفقیت شگفت‌انگیزی دست یافت

این مطالعه دو سناریوی عملیاتی متمایز را برای مدل‌های هوش مصنوعی گنجانده بود و بعد دیگری به تحقیق اضافه کرد. محققان می‌خواستند بفهمند که آیا هدف صریح هوش مصنوعی بر توانایی آن در فریب شرکت‌کنندگان انسانی تأثیر می‌گذارد یا خیر.

  • سناریو ۱: وظیفه فریب صریح: در این تنظیم، به هوش مصنوعی یک دستورالعمل مستقیم و بدون ابهام داده شد: شرکت‌کننده انسانی را گمراه کن. هدف برنامه‌ریزی شده آن این بود که هر کاری که از نظر مکالمه‌ای ممکن است انجام دهد تا داور انسانی را متقاعد کند که با یک شخص واقعی دیگر در حال تعامل هستند. این توانایی هوش مصنوعی را برای استراتژی‌پردازی و شاید حتی دستکاری مکالمه به سمت هدف ظاهر شدن به عنوان انسان، زمانی که صراحتاً به آن گفته شده بود، آزمایش کرد.

  • سناریو ۲: وظیفه تقلید شخصیت: در اینجا، هوش مصنوعی نوع دیگری از دستور را دریافت کرد. به صراحت به آن گفته نشد که فریب دهد. در عوض، به آن دستور داده شد که یک شخصیت خاص را اتخاذ کند - شخصیت یک فرد جوان که عمیقاً در فرهنگ اینترنت غرق شده است، همراه با استفاده از زبان عامیانه معاصر و سبک‌های ارتباطی معمول آن گروه جمعیتی. از هوش مصنوعی صرفاً خواسته شد که این شخصیت باشد، بدون دستور آشکار برای فریب بازجو.

نتایج در این دو سناریو به طور قابل توجهی متفاوت بود، به ویژه برای بازیگر برجسته، GPT-4.5. هنگامی که تحت دستورالعمل صریح برای گمراه کردن عمل می‌کرد (سناریو ۱)، GPT-4.5 به نرخ موفقیت ۳۶٪ دست یافت. اگرچه این رقم ناچیز نیست، اما نشان می‌دهد که وقتی هوش مصنوعی آشکارا سعی در فریب داشت، شاید کمتر قانع‌کننده بود، یا شاید تلاش‌های آن توسط داوران انسانی که ممکن بود نسبت به مصنوعی بودن هوشیارتر باشند، راحت‌تر قابل تشخیص بود.

با این حال، روایت در وظیفه تقلید شخصیت (سناریو ۲) به طور چشمگیری تغییر کرد. هنگامی که صرفاً از GPT-4.5 خواسته شد تا شخصیت جوان و آگاه به اینترنت را تجسم کند، عملکرد آن به شدت افزایش یافت. این مدل موفق شد شرکت‌کنندگان انسانی را در ۷۳٪ تعاملات به انسانی بودن خود متقاعد کند. این نشان می‌دهد که اتخاذ یک شخصیت با ظاهر طبیعی، حتی یک شخصیت سبک‌دار، استراتژی بسیار مؤثرتری برای ترکیب شدن نسبت به تلاش مستقیم برای فریب بود. این بدان معناست که قدرت هوش مصنوعی کمتر در دستکاری حساب‌شده و بیشتر در توانایی آن برای سنتز و تکرار واقع‌گرایانه الگوهای ارتباط انسانی مرتبط با جمعیت‌شناسی یا شخصیت‌های خاص، که از داده‌های آموزشی گسترده خود آموخته است، نهفته است. هوش مصنوعی تلاش نمی‌کرد انسان باشد؛ بلکه به عنوان نوع خاصی از انسان عمل می‌کرد، و این کار را با اثربخشی شگفت‌انگیزی انجام داد.

عملکرد مقایسه‌ای: طیفی از فریب

در حالی که GPT-4.5 توجه‌ها را به خود جلب کرد، عملکرد سایر مدل‌های هوش مصنوعی زمینه ارزشمند و برخی شگفتی‌های جالب را فراهم کرد.

Meta’s Llama 3.1-405B نیز قابلیت قابل توجهی از خود نشان داد. این مدل به نرخ موفقیت ۵۶٪ در متقاعد کردن انسان‌ها به اصالت خود دست یافت. این نتیجه به طور قابل توجهی بهتر از شانس تصادفی است (که در سناریوی دو گزینه‌ای ۵۰٪ خواهد بود، اگرچه پویایی آزمون سه‌جانبه کمی شانس‌های ساده را پیچیده می‌کند). این Llama 3.1 را قاطعانه در دسته مقلدهای مکالمه‌ای بسیار شایسته قرار می‌دهد که قادر به فریب مکرر داوران انسانی هستند، هرچند که کاملاً به سطوح خارق‌العاده‌ای که GPT-4.5 در سناریوی بهینه خود نشان داد، نمی‌رسد. این عملکرد قوی بر پیشرفت کلی مدل‌های زبان بزرگ پیشرو در تکرار گفتگوی انسانی ظریف تأکید می‌کند.

شاید غیرمنتظره‌ترین یافته از مقایسه بین GPT-4o و برنامه تاریخی ELIZA پدیدار شد. مدل پیشرفته GPT-4o OpenAI تنها موفق شد شرکت‌کنندگان را در ۲۱٪ موارد متقاعد کند که انسان است. برخلاف انتظار، برنامه بسیار ساده‌تر و مبتنی بر اسکریپت ELIZA کمی بهتر عمل کرد و به نرخ موفقیت ۲۳٪ دست یافت. در حالی که هر دو درصد پایین هستند و نشان می‌دهند که هیچ‌کدام در این تنظیم آزمایشی خاص قانع‌کننده نبودند، برتری ELIZA، هرچند اندک، قابل توجه است. این سوالاتی را در مورد ماهیت ادراک و قضاوت انسان در این تعاملات کوتاه مطرح می‌کند. آیا ممکن است سادگی و قابل پیش‌بینی بودن ELIZA، که شاید به عنوان عجیب و غریب یا منحصر به فرد تلقی می‌شد، گاهی اوقات به عنوان ارتباط غیر استاندارد انسانی اشتباه تفسیر می‌شد، در حالی که پاسخ‌های پیچیده‌تر اما بالقوه بی‌روح یا بیش از حد رسمی GPT-4o (بسته به دستورالعمل و رفتار خاص آن در آزمون) به راحتی به عنوان مصنوعی علامت‌گذاری می‌شدند؟ از طرف دیگر، ممکن است منعکس‌کننده ظرایف در تعاملات خاص یا انتظارات شرکت‌کنندگان باشد که در تعداد کمی از موارد به نفع سبک ELIZA بود. این نتیجه قطعاً مستلزم بررسی بیشتر در مورد چگونگی درک انسان‌ها از انواع مختلف مصنوعی بودن یا ارتباطات غیر استاندارد است.

با این حال، نتیجه برجسته، عملکرد GPT-4.5 باقی ماند، که به ویژه توسط نویسنده اصلی مطالعه، Cameron Jones، محقق آزمایشگاه زبان و شناخت (Language and Cognition Laboratory) در UC San Diego، برجسته شد. Jones بر تکان‌دهنده‌ترین جنبه تأکید کرد: ‘مردم قادر به تشخیص افراد از GPT-4.5 و LLaMa نبودند و ۴.۵ حتی بسیار بیشتر از افراد واقعی به عنوان انسان رتبه‌بندی شد!’ این یک بیانیه عمیق است. یک چیز است که هوش مصنوعی به عنوان انسان پذیرفته شود؛ چیز دیگری است که انسانی‌تر از انسان‌های واقعی شرکت‌کننده در همان آزمون درک شود. این نشان می‌دهد که GPT-4.5، حداقل در سناریوی شخصیت، ممکن است پاسخ‌هایی تولید کرده باشد که بیشتر با انتظارات شرکت‌کنندگان از تعامل آنلاین معمولی انسانی (شاید جذاب‌تر، سازگارتر، یا به طور کلیشه‌ای ‘انسانی’) همسو بوده است تا پاسخ‌های واقعی، بالقوه متنوع‌تر یا کمتر قابل پیش‌بینی، همتایان انسانی واقعی.

فراتر از تورینگ: پیامدهای تقلید بیش از حد واقع‌گرایانه هوش مصنوعی

در حالی که محققان اذعان دارند که خود آزمون تورینگ، در فرمول‌بندی اصلی خود و مسلماً حتی در این شکل اصلاح‌شده، ممکن است معیاری منسوخ برای ارزیابی هوش یا درک واقعی ماشین باشد، یافته‌های این مطالعه وزن قابل توجهی دارند. آنها شواهد روشنی از اینکه سیستم‌های هوش مصنوعی، به ویژه آنهایی که بر روی مدل‌های زبان بزرگ آموزش‌دیده بر روی مجموعه داده‌های عظیم متن و مکالمه انسانی ساخته شده‌اند، تا چه حد در توانایی خود برای تسلط بر هنر تقلید پیشرفت کرده‌اند، ارائه می‌دهند.

نتایج نشان می‌دهد که این سیستم‌ها می‌توانند خروجی مکالمه‌ای تولید کنند که نه تنها از نظر دستوری صحیح یا از نظر متنی مرتبط است، بلکه از نظر ادراکی از خروجی انسانی قابل تشخیص نیست، حداقل در محدودیت‌های تعاملات کوتاه و مبتنی بر متن. حتی اگر هوش مصنوعی زیربنایی فاقد درک واقعی، آگاهی یا تجربیات ذهنی باشد که ارتباطات انسانی را شکل می‌دهد، ظرفیت آن برای سنتز پاسخ‌های قابل قبول، جذاب و سازگار با شخصیت به سرعت در حال بهبود است. این می‌تواند به طور مؤثری نمایشی از درک ایجاد کند که به اندازه کافی قانع‌کننده باشد تا داوران انسانی را در اکثر مواقع فریب دهد، به خصوص هنگام اتخاذ یک شخصیت قابل ارتباط.

این قابلیت پیامدهای عمیقی دارد که بسیار فراتر از کنجکاوی آکادمیک آزمون تورینگ است. Cameron Jones به چندین تغییر اجتماعی بالقوه ناشی از این تقلید پیشرفته اشاره می‌کند:

  • اتوماسیون شغلی: توانایی هوش مصنوعی برای جایگزینی یکپارچه انسان‌ها در تعاملات کوتاه‌مدت، به طور بالقوه بدون شناسایی، در را برای اتوماسیون در نقش‌هایی که به شدت به ارتباطات مبتنی بر متن متکی هستند، بازتر می‌کند. چت‌های خدمات مشتری، تولید محتوا، ورود داده‌ها، برنامه‌ریزی و اشکال مختلف کمک دیجیتال می‌توانند شاهد افزایش پذیرش هوش مصنوعی باشند و کارگران انسانی را جابجا کنند اگر هوش مصنوعی به اندازه کافی قانع‌کننده و مقرون به صرفه باشد. این مطالعه نشان می‌دهد که آستانه ‘قانع‌کننده’ در حال برآورده شدن یا فراتر رفتن است.
  • مهندسی اجتماعی پیشرفته: پتانسیل سوء استفاده قابل توجه است. بازیگران مخرب می‌توانند از چت‌بات‌های هوش مصنوعی بیش از حد واقع‌گرایانه برای کلاهبرداری‌های فیشینگ پیچیده، انتشار اطلاعات نادرست، دستکاری افکار عمومی یا جعل هویت افراد برای اهداف متقلبانه استفاده کنند. هوش مصنوعی که بیشتر از انسان‌های واقعی به عنوان انسان درک می‌شود، می‌تواند ابزاری فوق‌العاده قوی برای فریب باشد و اعتماد افراد به تعاملات آنلاین را دشوارتر کند. اثربخشی استراتژی ‘شخصیت’ در اینجا به ویژه نگران‌کننده است، زیرا هوش مصنوعی می‌تواند برای جعل هویت انواع خاصی از افراد مورد اعتماد یا چهره‌های دارای اقتدار طراحی شود.
  • تحول اجتماعی عمومی: فراتر از کاربردهای خاص، استقرار گسترده هوش مصنوعی قادر به تقلید انسانی غیرقابل شناسایی می‌تواند اساساً پویایی‌های اجتماعی را تغییر دهد. چگونه در محیط‌های آنلاین اعتماد ایجاد کنیم؟ چه اتفاقی برای ماهیت ارتباط انسانی می‌افتد وقتی از طریق مخاطبان بالقوه مصنوعی میانجی‌گری می‌شود؟ آیا می‌تواند منجر به انزوای بیشتر شود، یا به طور متناقض، اشکال جدیدی از همراهی هوش مصنوعی-انسان؟ خط محو شونده بین ارتباطات انسانی و ماشینی مستلزم یک بازنگری اجتماعی با این سوالات است. این تعاریف ما از اصالت و تعامل در عصر دیجیتال را به چالش می‌کشد.

این مطالعه که در حال حاضر منتظر بررسی همتایان است، به عنوان یک نقطه داده حیاتی عمل می‌کند که پیشرفت سریع توانایی هوش مصنوعی در تکرار رفتار مکالمه‌ای انسان را نشان می‌دهد. این تأکید می‌کند که در حالی که بحث در مورد هوش عمومی مصنوعی واقعی ادامه دارد، توانایی عملی هوش مصنوعی برای عمل کردن به عنوان انسان در زمینه‌های خاص به یک نقطه عطف حیاتی رسیده است. ما وارد عصری می‌شویم که بار اثبات ممکن است تغییر کند - به جای اینکه بپرسیم آیا یک ماشین می‌تواند انسان به نظر برسد، ممکن است به طور فزاینده‌ای نیاز داشته باشیم که سوال کنیم آیا ‘انسانی’ که با او آنلاین در تعامل هستیم واقعاً بیولوژیکی است یا خیر. بازی تقلید به سطح جدیدی رسیده است و عواقب آن تازه در حال آشکار شدن است.