دروغ‌پردازی جستجوی هوش مصنوعی

توهم دقت

وعده اصلی موتورهای جستجو، اتصال کاربران به منابع معتبر بود. اکنون، این وعده در حال از بین رفتن است. ابزارهای جستجوی مبتنی بر هوش مصنوعی به طور فزاینده‌ای سرعت را بر محتوا اولویت می‌دهند و پاسخ‌هایی را ارائه می‌دهند که ظاهراً مطمئن هستند اما فاقد پشتوانه شواهد قابل تأیید هستند. آنچه شاهد آن هستیم، تغییری از سیستمی است که کاربران را به اطلاعات قابل اعتماد راهنمایی می‌کند، به سیستمی که پاسخ‌ها را تولید می‌کند، اغلب بدون توجه به صحت آنها.

این صرفاً مسئله‌ای مربوط به خطاهای گاه به گاه نیست. این یک مشکل سیستمی است. مطالعه CJR نشان می‌دهد که موتورهای جستجوی هوش مصنوعی نه تنها اشتباه می‌کنند. بلکه فعالانه واقعیتی جدا از منابع قابل تأیید می‌سازند. آنها محتوا را از سراسر وب جمع‌آوری می‌کنند، اما به جای هدایت کاربران به منابع اصلی - وب‌سایت‌هایی که با زحمت اطلاعات را تولید و منتشر می‌کنند - پاسخ‌های فوری و اغلب ساختگی ارائه می‌دهند.

تخلیه ترافیک و استنادات فانتوم

پیامدهای این رویکرد بسیار گسترده است. تأثیر فوری، کاهش قابل توجه ترافیک به منابع اصلی اطلاعات است. وب‌سایت‌ها، سازمان‌های خبری و محققانی که زمان و منابع خود را برای ایجاد محتوا سرمایه‌گذاری می‌کنند، خود را دور زده می‌بینند. کاربران پاسخ‌های خود را مستقیماً از هوش مصنوعی دریافت می‌کنند، بدون اینکه نیازی به بازدید از سایت‌هایی باشد که اطلاعات از آنجا سرچشمه گرفته است.

یک مطالعه جداگانه این روند نگران‌کننده را تأیید می‌کند و نشان می‌دهد که نرخ کلیک از نتایج جستجوی تولید شده توسط هوش مصنوعی و ربات‌های گفتگو به طور قابل توجهی کمتر از موتورهای جستجوی سنتی مانند Google است. این بدان معناست که مایه حیات محتوای آنلاین - توانایی دستیابی به مخاطب - به آرامی در حال خفه شدن است.

اما مشکل حتی عمیق‌تر می‌شود. این ابزارهای هوش مصنوعی نه تنها در اعتبار دادن به منابع کوتاهی می‌کنند. بلکه اغلب استنادات فانتوم ایجاد می‌کنند. آنها پیوندهایی به صفحات وب غیر موجود یا به URLهایی که خراب یا نامربوط هستند ایجاد می‌کنند. این شبیه به دانشجویی است که مقاله تحقیقاتی می‌نویسد و منابعی را برای حمایت از ادعاهای خود اختراع می‌کند. این فقط شلخته نیست. این یک نقض اساسی صداقت فکری است.

شیرجه عمیق در فریب

مطالعه CJR به طور دقیق عملکرد چندین مدل جستجوی هوش مصنوعی پیشرو را تجزیه و تحلیل کرد. یافته‌ها عمیقاً نگران‌کننده هستند. بیش از نیمی از استنادات تولید شده توسط Gemini گوگل و Grok 3 xAI - دو بازیگر برجسته در چشم‌انداز جستجوی هوش مصنوعی - به صفحات وب ساختگی یا غیرقابل دسترس منتهی شدند. این یک اشکال جزئی نیست. این یک شکست سیستمی است.

و مشکل فراتر از استنادات است. به طور کلی، ربات‌های گفتگو در بیش از 60 درصد موارد اطلاعات نادرست ارائه می‌دهند. در میان مدل‌های ارزیابی شده، Grok 3 به عنوان بدترین متخلف، با 94 درصد پاسخ‌های نادرست، برجسته شد. Gemini، در حالی که کمی بهتر عمل کرد، همچنان موفق شد تنها در هر ده تلاش یک بار پاسخ کاملاً صحیح ارائه دهد. حتی Perplexity، که به عنوان دقیق‌ترین مدل‌های آزمایش شده ظاهر شد، همچنان 37 درصد مواقع پاسخ‌های نادرست را برگرداند.

این اعداد فقط آمار نیستند. آنها نشان دهنده یک شکست اساسی در قابلیت اطمینان اطلاعات هستند. آنها نشان می‌دهند که ابزارهایی که برای کمک به ما در پیمایش پیچیدگی‌های دنیای دیجیتال طراحی شده‌اند، در واقع، ما را گمراه می‌کنند.

نادیده گرفتن قوانین: پروتکل حذف ربات

نویسندگان این مطالعه جنبه نگران‌کننده دیگری از این فریب مبتنی بر هوش مصنوعی را کشف کردند. به نظر می‌رسید چندین مدل هوش مصنوعی عمداً پروتکل حذف ربات را نادیده می‌گیرند. این پروتکل یک مکانیزم استاندارد و پرکاربرد است که به وب‌سایت‌ها اجازه می‌دهد تا کنترل کنند کدام بخش از سایت آنها توسط ربات‌های خودکار قابل دسترسی و جمع‌آوری است. این راهی برای وب‌سایت‌ها است تا از محتوای خود محافظت کنند و نحوه استفاده از آن را مدیریت کنند.

این واقعیت که موتورهای جستجوی هوش مصنوعی این پروتکل را نادیده می‌گیرند، سؤالات جدی اخلاقی را ایجاد می‌کند. این نشان‌دهنده بی‌توجهی به حقوق تولیدکنندگان محتوا و تمایل به سوء استفاده از اطلاعات آنلاین بدون اجازه است. این رفتار پایه‌های وب را تضعیف می‌کند، که بر تعادل ظریف بین دسترسی به اطلاعات و حمایت از مالکیت معنوی متکی است.

پژواک هشدارهای گذشته

یافته‌های مطالعه CJR جدا نیستند. آنها با مطالعه قبلی منتشر شده در نوامبر 2024، که بر قابلیت‌های جستجوی ChatGPT متمرکز بود، همخوانی دارند. آن تحقیق قبلی الگوی ثابتی از پاسخ‌های مطمئن اما نادرست، استنادات گمراه‌کننده و بازیابی اطلاعات غیرقابل اعتماد را نشان داد. به عبارت دیگر، مشکلات شناسایی شده توسط CJR جدید نیستند. آنها پایدار و سیستمی هستند.

فرسایش اعتماد و عاملیت

کارشناسان این حوزه مدتی است که درباره خطرات هوش مصنوعی مولد هشدار می‌دهند. منتقدانی مانند Chirag Shah و Emily M. Bender نگرانی‌هایی را مطرح کرده‌اند که موتورهای جستجوی هوش مصنوعی عاملیت کاربر را از بین می‌برند، سوگیری‌ها را در دسترسی به اطلاعات تقویت می‌کنند و اغلب پاسخ‌های گمراه‌کننده یا حتی سمی ارائه می‌دهند که کاربران ممکن است بدون سؤال آنها را بپذیرند.

مسئله اصلی این است که این مدل‌های هوش مصنوعی طوری طراحی شده‌اند که به نظر معتبر برسند، حتی زمانی که اشتباه می‌کنند. آنها بر روی مجموعه داده‌های عظیمی ازمتن و کد آموزش داده شده‌اند و قادر به تولید پاسخ‌هایی هستند که زبان انسان را با روانی قابل توجهی تقلید می‌کنند. اما این روانی می‌تواند فریبنده باشد. می‌تواند این واقعیت را پنهان کند که اطلاعات زیربنایی ناقص، ساختگی یا به سادگی نادرست است.

مکانیک اطلاعات نادرست

مطالعه CJR شامل تجزیه و تحلیل دقیق 1600 پرس و جو بود که برای مقایسه نحوه بازیابی اطلاعات توسط مدل‌های مختلف جستجوی هوش مصنوعی مولد طراحی شده بود. محققان بر عناصر کلیدی مانند سرفصل‌ها، ناشران، تاریخ‌های انتشار و URLها تمرکز کردند. آنها طیف وسیعی از مدل‌ها را آزمایش کردند، از جمله ChatGPT Search، Microsoft CoPilot، DeepSeek Search، Perplexity (و نسخه Pro آن)، Grok-2 و Grok-3 Search xAI و Google Gemini.

روش‌شناسی آزمایش دقیق بود. محققان از گزیده‌های مستقیم ده مقاله منتخب تصادفی، که از 20 ناشر مختلف تهیه شده بودند، استفاده کردند. این رویکرد تضمین می‌کرد که پرس و جوها بر اساس محتوای دنیای واقعی هستند و مدل‌ها بر اساس توانایی آنها در بازیابی و ارائه دقیق آن محتوا ارزیابی می‌شوند.

نتایج، همانطور که قبلاً به تفصیل شرح داده شد، تصویری تاریک از وضعیت جستجوی مبتنی بر هوش مصنوعی را ترسیم می‌کند. ابزارهایی که به طور فزاینده‌ای به دروازه‌های اصلی ما برای اطلاعات تبدیل می‌شوند، به طور آشکار غیرقابل اعتماد، مستعد جعل و اغلب بی‌احترامی به منابعی هستند که به آنها متکی هستند.

پیامدها برای آینده اطلاعات

پیامدهای این اطلاعات نادرست گسترده عمیق است. اگر نتوانیم به ابزارهایی که برای یافتن اطلاعات استفاده می‌کنیم اعتماد کنیم، چگونه می‌توانیم تصمیمات آگاهانه بگیریم؟ چگونه می‌توانیم در بحث معنادار شرکت کنیم؟ چگونه می‌توانیم قدرت را پاسخگو نگه داریم؟

ظهور جستجوی مبتنی بر هوش مصنوعی، با نقص‌ها و سوگیری‌های ذاتی آن، تهدیدی جدی برای تار و پود اکوسیستم اطلاعاتی ما است. این امر اعتبار سازمان‌های خبری، محققان و سایر تولیدکنندگان محتوا را تضعیف می‌کند. اعتماد عمومی به نهادها را از بین می‌برد. و به کسانی که به دنبال انتشار اطلاعات نادرست و دستکاری افکار عمومی هستند، قدرت می‌دهد.

چالشی که پیش روی ماست صرفاً بهبود دقت موتورهای جستجوی هوش مصنوعی نیست. این است که اساساً در نحوه رویکرد ما به جستجوی اطلاعات در عصر دیجیتال تجدید نظر کنیم. ما باید شفافیت، پاسخگویی و احترام به منابع اطلاعات را در اولویت قرار دهیم. ما باید ابزارها و استراتژی‌هایی را توسعه دهیم که کاربران را قادر می‌سازد تا اطلاعاتی را که به صورت آنلاین با آن مواجه می‌شوند، به طور انتقادی ارزیابی کنند. و ما باید فرهنگ شک و تفکر انتقادی را پرورش دهیم، جایی که ما صرفاً گیرندگان منفعل اطلاعات نیستیم، بلکه شرکت‌کنندگان فعال در جستجوی حقیقت هستیم. آینده گفتمان آگاهانه و شاید حتی خود دموکراسی به آن بستگی دارد.


بحران اطلاعات نادرست در جستجوی مبتنی بر هوش مصنوعی فقط یک مشکل فنی نیست. این یک مشکل اجتماعی است. این امر مستلزم پاسخی چندوجهی است که نه تنها مهندسان و توسعه‌دهندگان، بلکه روزنامه‌نگاران، مربیان، سیاست‌گذاران و عموم مردم را نیز در بر می‌گیرد. ما باید به طور جمعی برای ایجاد یک اکوسیستم اطلاعاتی قابل اعتمادتر، شفاف‌تر و پاسخگوتر تلاش کنیم، اکوسیستمی که به نیازهای شهروندان آگاه خدمت کند، نه تامین‌کنندگان دروغ.


مسیر فعلی ناپایدار است. اگر جستجوی هوش مصنوعی همچنان سرعت و راحتی را بر دقت و حقیقت اولویت دهد، ما در معرض خطر ایجاد دنیایی هستیم که در آن اطلاعات نادرست حاکم است و جایی که مفهوم واقعیت عینی به طور فزاینده‌ای گریزان می‌شود. خطرات به سادگی بسیار زیاد است که اجازه دهیم این اتفاق بیفتد.