بازنگری معیار: پیچ و تابی مدرن در دیدگاه تورینگ
تلاش برای تعیین اینکه آیا یک ماشین واقعاً میتواند ‘فکر’ کند، دهههاست که دانشمندان کامپیوتر و فیلسوفان را مجذوب خود کرده است. در قلب این بحث اغلب مفهوم بنیادینی نهفته است که توسط Alan Turing، ریاضیدان و رمزگشای درخشان بریتانیایی که کارش سنگ بنای محاسبات مدرن را گذاشت، ارائه شد. Turing سناریویی را متصور شد که اکنون به عنوان آزمون تورینگ (Turing Test) مشهور است، جایی که یک بازجوی انسانی درگیر مکالمات متنی با دو موجودیت نادیده - یکی انسان، یکی ماشین - میشود. معیار حیاتی موفقیت ماشین چیست؟ توانایی آن در فریب دادن بازجو برای باور اینکه او شرکتکننده انسانی است. Turing فرض کرد که اگر بازجو نتواند به طور قابل اعتمادی ماشین را از شخص تشخیص دهد، میتوان ماشین را قادر به رفتار هوشمندانهای شبیه به انسان دانست. در حالی که آزمون اصلی با انتقاداتی در مورد کفایت آن به عنوان معیار واقعی آگاهی یا درک مواجه شده است، ایده اصلی آن - ارزیابی توانایی هوش مصنوعی در تکرار قانعکننده تعامل انسانی - همچنان یک معیار قدرتمند باقی مانده است.
اکنون، محققان از دانشگاه کالیفرنیا، سن دیگو (University of California, San Diego)، جان تازهای به این ارزیابی کلاسیک دمیدهاند و یک تغییر جذاب را برای چشمانداز پیچیده هوش مصنوعی امروزی معرفی کردهاند. مطالعه آنها پیشگام یک تکرار سهجانبه از آزمون تورینگ است که پیچیدگی و شاید پویایی واقعبینانهتری را به ارزیابی اضافه میکند. این فقط در مورد تشخیص یک هوش مصنوعی از یک انسان نبود؛ بلکه شامل رقص پیچیدهتری از تعامل و فریب بود که سیستمهای هوش مصنوعی معاصر را در هنر تقلید به محدودیتهای خود میرساند. یافتهها نشان میدهد که پیشرفتهترین مدلهای هوش مصنوعی نه تنها به آستانه مکالمه شبیه انسان نزدیک میشوند؛ بلکه در برخی زمینهها، ممکن است از آن فراتر رفته و گاهی اوقات انسانیتر از خود انسانها به نظر برسند.
میدان نبرد: قرار دادن انسانها در برابر هوش مصنوعی پیشرفته
طرح آزمایشی که توسط تیم UC San Diego ساخته شد، مشخص و دقیق بود. هر دور تعامل شامل یک سهگانه بود: دو شرکتکننده انسانی و یک مدل هوش مصنوعی. به انسانها یک هدف واحد و چالشبرانگیز محول شد: پس از یک دوره مکالمه، تعیین کنند که کدام یک از دو مخاطب نادیده آنها هوش مصنوعی و کدام یک انسان دیگر است. این تنظیم ذاتاً در مقایسه با آزمون تورینگ اصلی یکبهیکبهیک، مخاطرات را افزایش میدهد.
برای تسهیل این تعیین، شرکتکنندگان در دو گفتگوی متنی همزمان و موازی شرکت کردند - یکی با انسان پنهان، دیگری با هوش مصنوعی پنهان. به آنها یک پنجره زمانی مختصر پنج دقیقهای برای هر دور اختصاص داده شد. در این بازه زمانی، داوران انسانی آزادی کامل داشتند. آنها میتوانستند از هر استراتژی پرسشی استفاده کنند، با هر موضوعی تحقیق کنند، یا از هر تاکتیک مکالمهای که برای کشف ماهیت واقعی شرکای چت خود مؤثر میدانستند، استفاده کنند. کوتاهی پنجره تعامل لایه دیگری از چالش را اضافه میکند، توانایی هوش مصنوعی را برای ایجاد سریع یک شخصیت قانعکننده و حفظ آن تحت بررسی آزمایش میکند، در حالی که توانایی انسان را برای قضاوت سریع و دقیق بر اساس دادههای مکالمه محدود نیز آزمایش میکند. پس از دوره تعامل پنج دقیقهای، لحظه حقیقت فرا رسید: شرکتکنندگان انسانی رأی خود را اعلام کردند و مشخص کردند که کدام موجودیت را هوش مصنوعی میدانند.
محققان به یک سیستم هوش مصنوعی واحد تکیه نکردند. در عوض، آنها مجموعهای متنوع را گردآوری کردند که نماینده دورهها و قابلیتهای مختلف در توسعه هوش مصنوعی بودند:
- ELIZA: یک چتبات پیشگام که توسط Joseph Weizenbaum نزدیک به شش دهه پیش توسعه یافت (نه 80 سال پیش همانطور که در منبع ذکر شده، ELIZA به اواسط دهه 1960 بازمیگردد). اگرچه با استانداردهای امروزی ابتدایی است و به تطبیق الگو و اسکریپتهای ساده متکی است، ELIZA به عنوان یک مبنای تاریخی عمل کرد و نماینده تلاشهای اولیه در هوش مصنوعی مکالمهای بود.
- Meta’s Llama 3.1-405B: یک مدل زبان بزرگ (LLM) قدرتمند و معاصر از Meta AI که به دلیل قابلیتهای پیچیده تولید متن و استدلال شناخته شده است. گنجاندن آن نشاندهنده وضعیت فعلی هنر از یک آزمایشگاه تحقیقاتی بزرگ هوش مصنوعی است.
- OpenAI’s GPT-4o: جدیدترین مدل چندوجهی منتشر شده عمومی از OpenAI در زمان مطالعه، که به دلیل سرعت، کارایی و تواناییهای مکالمهای بهبود یافته در مقایسه با تکرارهای قبلی GPT شناخته شده است.
- OpenAI’s GPT-4.5: ظاهراً یک نسخه پیشرفتهتر، شاید منتشر نشده یا داخلی از سری مدلهای پرچمدار OpenAI. گنجاندن آن نشاندهنده دسترسی به مدلهایی است که به طور بالقوه مرزها را فراتر از سیستمهای در دسترس عموم جابجا میکنند.
این انتخاب به محققان اجازه داد تا نه تنها هوش مصنوعی مدرن را در برابر انسانها، بلکه در برابر یک معیار تاریخی و در برابر سطوح مختلف پیچیدگی هوش مصنوعی معاصر مقایسه کنند. سوال اصلی باقی ماند: آیا این ماشینها، به ویژه LLM های پیشرفته، میتوانند با موفقیت در این معمای مکالمهای سهجانبه حرکت کنند و به عنوان انسان پذیرفته شوند؟
استراتژی شخصیت: چگونه GPT-4.5 به موفقیت شگفتانگیزی دست یافت
این مطالعه دو سناریوی عملیاتی متمایز را برای مدلهای هوش مصنوعی گنجانده بود و بعد دیگری به تحقیق اضافه کرد. محققان میخواستند بفهمند که آیا هدف صریح هوش مصنوعی بر توانایی آن در فریب شرکتکنندگان انسانی تأثیر میگذارد یا خیر.
سناریو ۱: وظیفه فریب صریح: در این تنظیم، به هوش مصنوعی یک دستورالعمل مستقیم و بدون ابهام داده شد: شرکتکننده انسانی را گمراه کن. هدف برنامهریزی شده آن این بود که هر کاری که از نظر مکالمهای ممکن است انجام دهد تا داور انسانی را متقاعد کند که با یک شخص واقعی دیگر در حال تعامل هستند. این توانایی هوش مصنوعی را برای استراتژیپردازی و شاید حتی دستکاری مکالمه به سمت هدف ظاهر شدن به عنوان انسان، زمانی که صراحتاً به آن گفته شده بود، آزمایش کرد.
سناریو ۲: وظیفه تقلید شخصیت: در اینجا، هوش مصنوعی نوع دیگری از دستور را دریافت کرد. به صراحت به آن گفته نشد که فریب دهد. در عوض، به آن دستور داده شد که یک شخصیت خاص را اتخاذ کند - شخصیت یک فرد جوان که عمیقاً در فرهنگ اینترنت غرق شده است، همراه با استفاده از زبان عامیانه معاصر و سبکهای ارتباطی معمول آن گروه جمعیتی. از هوش مصنوعی صرفاً خواسته شد که این شخصیت باشد، بدون دستور آشکار برای فریب بازجو.
نتایج در این دو سناریو به طور قابل توجهی متفاوت بود، به ویژه برای بازیگر برجسته، GPT-4.5. هنگامی که تحت دستورالعمل صریح برای گمراه کردن عمل میکرد (سناریو ۱)، GPT-4.5 به نرخ موفقیت ۳۶٪ دست یافت. اگرچه این رقم ناچیز نیست، اما نشان میدهد که وقتی هوش مصنوعی آشکارا سعی در فریب داشت، شاید کمتر قانعکننده بود، یا شاید تلاشهای آن توسط داوران انسانی که ممکن بود نسبت به مصنوعی بودن هوشیارتر باشند، راحتتر قابل تشخیص بود.
با این حال، روایت در وظیفه تقلید شخصیت (سناریو ۲) به طور چشمگیری تغییر کرد. هنگامی که صرفاً از GPT-4.5 خواسته شد تا شخصیت جوان و آگاه به اینترنت را تجسم کند، عملکرد آن به شدت افزایش یافت. این مدل موفق شد شرکتکنندگان انسانی را در ۷۳٪ تعاملات به انسانی بودن خود متقاعد کند. این نشان میدهد که اتخاذ یک شخصیت با ظاهر طبیعی، حتی یک شخصیت سبکدار، استراتژی بسیار مؤثرتری برای ترکیب شدن نسبت به تلاش مستقیم برای فریب بود. این بدان معناست که قدرت هوش مصنوعی کمتر در دستکاری حسابشده و بیشتر در توانایی آن برای سنتز و تکرار واقعگرایانه الگوهای ارتباط انسانی مرتبط با جمعیتشناسی یا شخصیتهای خاص، که از دادههای آموزشی گسترده خود آموخته است، نهفته است. هوش مصنوعی تلاش نمیکرد انسان باشد؛ بلکه به عنوان نوع خاصی از انسان عمل میکرد، و این کار را با اثربخشی شگفتانگیزی انجام داد.
عملکرد مقایسهای: طیفی از فریب
در حالی که GPT-4.5 توجهها را به خود جلب کرد، عملکرد سایر مدلهای هوش مصنوعی زمینه ارزشمند و برخی شگفتیهای جالب را فراهم کرد.
Meta’s Llama 3.1-405B نیز قابلیت قابل توجهی از خود نشان داد. این مدل به نرخ موفقیت ۵۶٪ در متقاعد کردن انسانها به اصالت خود دست یافت. این نتیجه به طور قابل توجهی بهتر از شانس تصادفی است (که در سناریوی دو گزینهای ۵۰٪ خواهد بود، اگرچه پویایی آزمون سهجانبه کمی شانسهای ساده را پیچیده میکند). این Llama 3.1 را قاطعانه در دسته مقلدهای مکالمهای بسیار شایسته قرار میدهد که قادر به فریب مکرر داوران انسانی هستند، هرچند که کاملاً به سطوح خارقالعادهای که GPT-4.5 در سناریوی بهینه خود نشان داد، نمیرسد. این عملکرد قوی بر پیشرفت کلی مدلهای زبان بزرگ پیشرو در تکرار گفتگوی انسانی ظریف تأکید میکند.
شاید غیرمنتظرهترین یافته از مقایسه بین GPT-4o و برنامه تاریخی ELIZA پدیدار شد. مدل پیشرفته GPT-4o OpenAI تنها موفق شد شرکتکنندگان را در ۲۱٪ موارد متقاعد کند که انسان است. برخلاف انتظار، برنامه بسیار سادهتر و مبتنی بر اسکریپت ELIZA کمی بهتر عمل کرد و به نرخ موفقیت ۲۳٪ دست یافت. در حالی که هر دو درصد پایین هستند و نشان میدهند که هیچکدام در این تنظیم آزمایشی خاص قانعکننده نبودند، برتری ELIZA، هرچند اندک، قابل توجه است. این سوالاتی را در مورد ماهیت ادراک و قضاوت انسان در این تعاملات کوتاه مطرح میکند. آیا ممکن است سادگی و قابل پیشبینی بودن ELIZA، که شاید به عنوان عجیب و غریب یا منحصر به فرد تلقی میشد، گاهی اوقات به عنوان ارتباط غیر استاندارد انسانی اشتباه تفسیر میشد، در حالی که پاسخهای پیچیدهتر اما بالقوه بیروح یا بیش از حد رسمی GPT-4o (بسته به دستورالعمل و رفتار خاص آن در آزمون) به راحتی به عنوان مصنوعی علامتگذاری میشدند؟ از طرف دیگر، ممکن است منعکسکننده ظرایف در تعاملات خاص یا انتظارات شرکتکنندگان باشد که در تعداد کمی از موارد به نفع سبک ELIZA بود. این نتیجه قطعاً مستلزم بررسی بیشتر در مورد چگونگی درک انسانها از انواع مختلف مصنوعی بودن یا ارتباطات غیر استاندارد است.
با این حال، نتیجه برجسته، عملکرد GPT-4.5 باقی ماند، که به ویژه توسط نویسنده اصلی مطالعه، Cameron Jones، محقق آزمایشگاه زبان و شناخت (Language and Cognition Laboratory) در UC San Diego، برجسته شد. Jones بر تکاندهندهترین جنبه تأکید کرد: ‘مردم قادر به تشخیص افراد از GPT-4.5 و LLaMa نبودند و ۴.۵ حتی بسیار بیشتر از افراد واقعی به عنوان انسان رتبهبندی شد!’ این یک بیانیه عمیق است. یک چیز است که هوش مصنوعی به عنوان انسان پذیرفته شود؛ چیز دیگری است که انسانیتر از انسانهای واقعی شرکتکننده در همان آزمون درک شود. این نشان میدهد که GPT-4.5، حداقل در سناریوی شخصیت، ممکن است پاسخهایی تولید کرده باشد که بیشتر با انتظارات شرکتکنندگان از تعامل آنلاین معمولی انسانی (شاید جذابتر، سازگارتر، یا به طور کلیشهای ‘انسانی’) همسو بوده است تا پاسخهای واقعی، بالقوه متنوعتر یا کمتر قابل پیشبینی، همتایان انسانی واقعی.
فراتر از تورینگ: پیامدهای تقلید بیش از حد واقعگرایانه هوش مصنوعی
در حالی که محققان اذعان دارند که خود آزمون تورینگ، در فرمولبندی اصلی خود و مسلماً حتی در این شکل اصلاحشده، ممکن است معیاری منسوخ برای ارزیابی هوش یا درک واقعی ماشین باشد، یافتههای این مطالعه وزن قابل توجهی دارند. آنها شواهد روشنی از اینکه سیستمهای هوش مصنوعی، به ویژه آنهایی که بر روی مدلهای زبان بزرگ آموزشدیده بر روی مجموعه دادههای عظیم متن و مکالمه انسانی ساخته شدهاند، تا چه حد در توانایی خود برای تسلط بر هنر تقلید پیشرفت کردهاند، ارائه میدهند.
نتایج نشان میدهد که این سیستمها میتوانند خروجی مکالمهای تولید کنند که نه تنها از نظر دستوری صحیح یا از نظر متنی مرتبط است، بلکه از نظر ادراکی از خروجی انسانی قابل تشخیص نیست، حداقل در محدودیتهای تعاملات کوتاه و مبتنی بر متن. حتی اگر هوش مصنوعی زیربنایی فاقد درک واقعی، آگاهی یا تجربیات ذهنی باشد که ارتباطات انسانی را شکل میدهد، ظرفیت آن برای سنتز پاسخهای قابل قبول، جذاب و سازگار با شخصیت به سرعت در حال بهبود است. این میتواند به طور مؤثری نمایشی از درک ایجاد کند که به اندازه کافی قانعکننده باشد تا داوران انسانی را در اکثر مواقع فریب دهد، به خصوص هنگام اتخاذ یک شخصیت قابل ارتباط.
این قابلیت پیامدهای عمیقی دارد که بسیار فراتر از کنجکاوی آکادمیک آزمون تورینگ است. Cameron Jones به چندین تغییر اجتماعی بالقوه ناشی از این تقلید پیشرفته اشاره میکند:
- اتوماسیون شغلی: توانایی هوش مصنوعی برای جایگزینی یکپارچه انسانها در تعاملات کوتاهمدت، به طور بالقوه بدون شناسایی، در را برای اتوماسیون در نقشهایی که به شدت به ارتباطات مبتنی بر متن متکی هستند، بازتر میکند. چتهای خدمات مشتری، تولید محتوا، ورود دادهها، برنامهریزی و اشکال مختلف کمک دیجیتال میتوانند شاهد افزایش پذیرش هوش مصنوعی باشند و کارگران انسانی را جابجا کنند اگر هوش مصنوعی به اندازه کافی قانعکننده و مقرون به صرفه باشد. این مطالعه نشان میدهد که آستانه ‘قانعکننده’ در حال برآورده شدن یا فراتر رفتن است.
- مهندسی اجتماعی پیشرفته: پتانسیل سوء استفاده قابل توجه است. بازیگران مخرب میتوانند از چتباتهای هوش مصنوعی بیش از حد واقعگرایانه برای کلاهبرداریهای فیشینگ پیچیده، انتشار اطلاعات نادرست، دستکاری افکار عمومی یا جعل هویت افراد برای اهداف متقلبانه استفاده کنند. هوش مصنوعی که بیشتر از انسانهای واقعی به عنوان انسان درک میشود، میتواند ابزاری فوقالعاده قوی برای فریب باشد و اعتماد افراد به تعاملات آنلاین را دشوارتر کند. اثربخشی استراتژی ‘شخصیت’ در اینجا به ویژه نگرانکننده است، زیرا هوش مصنوعی میتواند برای جعل هویت انواع خاصی از افراد مورد اعتماد یا چهرههای دارای اقتدار طراحی شود.
- تحول اجتماعی عمومی: فراتر از کاربردهای خاص، استقرار گسترده هوش مصنوعی قادر به تقلید انسانی غیرقابل شناسایی میتواند اساساً پویاییهای اجتماعی را تغییر دهد. چگونه در محیطهای آنلاین اعتماد ایجاد کنیم؟ چه اتفاقی برای ماهیت ارتباط انسانی میافتد وقتی از طریق مخاطبان بالقوه مصنوعی میانجیگری میشود؟ آیا میتواند منجر به انزوای بیشتر شود، یا به طور متناقض، اشکال جدیدی از همراهی هوش مصنوعی-انسان؟ خط محو شونده بین ارتباطات انسانی و ماشینی مستلزم یک بازنگری اجتماعی با این سوالات است. این تعاریف ما از اصالت و تعامل در عصر دیجیتال را به چالش میکشد.
این مطالعه که در حال حاضر منتظر بررسی همتایان است، به عنوان یک نقطه داده حیاتی عمل میکند که پیشرفت سریع توانایی هوش مصنوعی در تکرار رفتار مکالمهای انسان را نشان میدهد. این تأکید میکند که در حالی که بحث در مورد هوش عمومی مصنوعی واقعی ادامه دارد، توانایی عملی هوش مصنوعی برای عمل کردن به عنوان انسان در زمینههای خاص به یک نقطه عطف حیاتی رسیده است. ما وارد عصری میشویم که بار اثبات ممکن است تغییر کند - به جای اینکه بپرسیم آیا یک ماشین میتواند انسان به نظر برسد، ممکن است به طور فزایندهای نیاز داشته باشیم که سوال کنیم آیا ‘انسانی’ که با او آنلاین در تعامل هستیم واقعاً بیولوژیکی است یا خیر. بازی تقلید به سطح جدیدی رسیده است و عواقب آن تازه در حال آشکار شدن است.