توهم دقت
وعده اصلی موتورهای جستجو، اتصال کاربران به منابع معتبر بود. اکنون، این وعده در حال از بین رفتن است. ابزارهای جستجوی مبتنی بر هوش مصنوعی به طور فزایندهای سرعت را بر محتوا اولویت میدهند و پاسخهایی را ارائه میدهند که ظاهراً مطمئن هستند اما فاقد پشتوانه شواهد قابل تأیید هستند. آنچه شاهد آن هستیم، تغییری از سیستمی است که کاربران را به اطلاعات قابل اعتماد راهنمایی میکند، به سیستمی که پاسخها را تولید میکند، اغلب بدون توجه به صحت آنها.
این صرفاً مسئلهای مربوط به خطاهای گاه به گاه نیست. این یک مشکل سیستمی است. مطالعه CJR نشان میدهد که موتورهای جستجوی هوش مصنوعی نه تنها اشتباه میکنند. بلکه فعالانه واقعیتی جدا از منابع قابل تأیید میسازند. آنها محتوا را از سراسر وب جمعآوری میکنند، اما به جای هدایت کاربران به منابع اصلی - وبسایتهایی که با زحمت اطلاعات را تولید و منتشر میکنند - پاسخهای فوری و اغلب ساختگی ارائه میدهند.
تخلیه ترافیک و استنادات فانتوم
پیامدهای این رویکرد بسیار گسترده است. تأثیر فوری، کاهش قابل توجه ترافیک به منابع اصلی اطلاعات است. وبسایتها، سازمانهای خبری و محققانی که زمان و منابع خود را برای ایجاد محتوا سرمایهگذاری میکنند، خود را دور زده میبینند. کاربران پاسخهای خود را مستقیماً از هوش مصنوعی دریافت میکنند، بدون اینکه نیازی به بازدید از سایتهایی باشد که اطلاعات از آنجا سرچشمه گرفته است.
یک مطالعه جداگانه این روند نگرانکننده را تأیید میکند و نشان میدهد که نرخ کلیک از نتایج جستجوی تولید شده توسط هوش مصنوعی و رباتهای گفتگو به طور قابل توجهی کمتر از موتورهای جستجوی سنتی مانند Google است. این بدان معناست که مایه حیات محتوای آنلاین - توانایی دستیابی به مخاطب - به آرامی در حال خفه شدن است.
اما مشکل حتی عمیقتر میشود. این ابزارهای هوش مصنوعی نه تنها در اعتبار دادن به منابع کوتاهی میکنند. بلکه اغلب استنادات فانتوم ایجاد میکنند. آنها پیوندهایی به صفحات وب غیر موجود یا به URLهایی که خراب یا نامربوط هستند ایجاد میکنند. این شبیه به دانشجویی است که مقاله تحقیقاتی مینویسد و منابعی را برای حمایت از ادعاهای خود اختراع میکند. این فقط شلخته نیست. این یک نقض اساسی صداقت فکری است.
شیرجه عمیق در فریب
مطالعه CJR به طور دقیق عملکرد چندین مدل جستجوی هوش مصنوعی پیشرو را تجزیه و تحلیل کرد. یافتهها عمیقاً نگرانکننده هستند. بیش از نیمی از استنادات تولید شده توسط Gemini گوگل و Grok 3 xAI - دو بازیگر برجسته در چشمانداز جستجوی هوش مصنوعی - به صفحات وب ساختگی یا غیرقابل دسترس منتهی شدند. این یک اشکال جزئی نیست. این یک شکست سیستمی است.
و مشکل فراتر از استنادات است. به طور کلی، رباتهای گفتگو در بیش از 60 درصد موارد اطلاعات نادرست ارائه میدهند. در میان مدلهای ارزیابی شده، Grok 3 به عنوان بدترین متخلف، با 94 درصد پاسخهای نادرست، برجسته شد. Gemini، در حالی که کمی بهتر عمل کرد، همچنان موفق شد تنها در هر ده تلاش یک بار پاسخ کاملاً صحیح ارائه دهد. حتی Perplexity، که به عنوان دقیقترین مدلهای آزمایش شده ظاهر شد، همچنان 37 درصد مواقع پاسخهای نادرست را برگرداند.
این اعداد فقط آمار نیستند. آنها نشان دهنده یک شکست اساسی در قابلیت اطمینان اطلاعات هستند. آنها نشان میدهند که ابزارهایی که برای کمک به ما در پیمایش پیچیدگیهای دنیای دیجیتال طراحی شدهاند، در واقع، ما را گمراه میکنند.
نادیده گرفتن قوانین: پروتکل حذف ربات
نویسندگان این مطالعه جنبه نگرانکننده دیگری از این فریب مبتنی بر هوش مصنوعی را کشف کردند. به نظر میرسید چندین مدل هوش مصنوعی عمداً پروتکل حذف ربات را نادیده میگیرند. این پروتکل یک مکانیزم استاندارد و پرکاربرد است که به وبسایتها اجازه میدهد تا کنترل کنند کدام بخش از سایت آنها توسط رباتهای خودکار قابل دسترسی و جمعآوری است. این راهی برای وبسایتها است تا از محتوای خود محافظت کنند و نحوه استفاده از آن را مدیریت کنند.
این واقعیت که موتورهای جستجوی هوش مصنوعی این پروتکل را نادیده میگیرند، سؤالات جدی اخلاقی را ایجاد میکند. این نشاندهنده بیتوجهی به حقوق تولیدکنندگان محتوا و تمایل به سوء استفاده از اطلاعات آنلاین بدون اجازه است. این رفتار پایههای وب را تضعیف میکند، که بر تعادل ظریف بین دسترسی به اطلاعات و حمایت از مالکیت معنوی متکی است.
پژواک هشدارهای گذشته
یافتههای مطالعه CJR جدا نیستند. آنها با مطالعه قبلی منتشر شده در نوامبر 2024، که بر قابلیتهای جستجوی ChatGPT متمرکز بود، همخوانی دارند. آن تحقیق قبلی الگوی ثابتی از پاسخهای مطمئن اما نادرست، استنادات گمراهکننده و بازیابی اطلاعات غیرقابل اعتماد را نشان داد. به عبارت دیگر، مشکلات شناسایی شده توسط CJR جدید نیستند. آنها پایدار و سیستمی هستند.
فرسایش اعتماد و عاملیت
کارشناسان این حوزه مدتی است که درباره خطرات هوش مصنوعی مولد هشدار میدهند. منتقدانی مانند Chirag Shah و Emily M. Bender نگرانیهایی را مطرح کردهاند که موتورهای جستجوی هوش مصنوعی عاملیت کاربر را از بین میبرند، سوگیریها را در دسترسی به اطلاعات تقویت میکنند و اغلب پاسخهای گمراهکننده یا حتی سمی ارائه میدهند که کاربران ممکن است بدون سؤال آنها را بپذیرند.
مسئله اصلی این است که این مدلهای هوش مصنوعی طوری طراحی شدهاند که به نظر معتبر برسند، حتی زمانی که اشتباه میکنند. آنها بر روی مجموعه دادههای عظیمی ازمتن و کد آموزش داده شدهاند و قادر به تولید پاسخهایی هستند که زبان انسان را با روانی قابل توجهی تقلید میکنند. اما این روانی میتواند فریبنده باشد. میتواند این واقعیت را پنهان کند که اطلاعات زیربنایی ناقص، ساختگی یا به سادگی نادرست است.
مکانیک اطلاعات نادرست
مطالعه CJR شامل تجزیه و تحلیل دقیق 1600 پرس و جو بود که برای مقایسه نحوه بازیابی اطلاعات توسط مدلهای مختلف جستجوی هوش مصنوعی مولد طراحی شده بود. محققان بر عناصر کلیدی مانند سرفصلها، ناشران، تاریخهای انتشار و URLها تمرکز کردند. آنها طیف وسیعی از مدلها را آزمایش کردند، از جمله ChatGPT Search، Microsoft CoPilot، DeepSeek Search، Perplexity (و نسخه Pro آن)، Grok-2 و Grok-3 Search xAI و Google Gemini.
روششناسی آزمایش دقیق بود. محققان از گزیدههای مستقیم ده مقاله منتخب تصادفی، که از 20 ناشر مختلف تهیه شده بودند، استفاده کردند. این رویکرد تضمین میکرد که پرس و جوها بر اساس محتوای دنیای واقعی هستند و مدلها بر اساس توانایی آنها در بازیابی و ارائه دقیق آن محتوا ارزیابی میشوند.
نتایج، همانطور که قبلاً به تفصیل شرح داده شد، تصویری تاریک از وضعیت جستجوی مبتنی بر هوش مصنوعی را ترسیم میکند. ابزارهایی که به طور فزایندهای به دروازههای اصلی ما برای اطلاعات تبدیل میشوند، به طور آشکار غیرقابل اعتماد، مستعد جعل و اغلب بیاحترامی به منابعی هستند که به آنها متکی هستند.
پیامدها برای آینده اطلاعات
پیامدهای این اطلاعات نادرست گسترده عمیق است. اگر نتوانیم به ابزارهایی که برای یافتن اطلاعات استفاده میکنیم اعتماد کنیم، چگونه میتوانیم تصمیمات آگاهانه بگیریم؟ چگونه میتوانیم در بحث معنادار شرکت کنیم؟ چگونه میتوانیم قدرت را پاسخگو نگه داریم؟
ظهور جستجوی مبتنی بر هوش مصنوعی، با نقصها و سوگیریهای ذاتی آن، تهدیدی جدی برای تار و پود اکوسیستم اطلاعاتی ما است. این امر اعتبار سازمانهای خبری، محققان و سایر تولیدکنندگان محتوا را تضعیف میکند. اعتماد عمومی به نهادها را از بین میبرد. و به کسانی که به دنبال انتشار اطلاعات نادرست و دستکاری افکار عمومی هستند، قدرت میدهد.
چالشی که پیش روی ماست صرفاً بهبود دقت موتورهای جستجوی هوش مصنوعی نیست. این است که اساساً در نحوه رویکرد ما به جستجوی اطلاعات در عصر دیجیتال تجدید نظر کنیم. ما باید شفافیت، پاسخگویی و احترام به منابع اطلاعات را در اولویت قرار دهیم. ما باید ابزارها و استراتژیهایی را توسعه دهیم که کاربران را قادر میسازد تا اطلاعاتی را که به صورت آنلاین با آن مواجه میشوند، به طور انتقادی ارزیابی کنند. و ما باید فرهنگ شک و تفکر انتقادی را پرورش دهیم، جایی که ما صرفاً گیرندگان منفعل اطلاعات نیستیم، بلکه شرکتکنندگان فعال در جستجوی حقیقت هستیم. آینده گفتمان آگاهانه و شاید حتی خود دموکراسی به آن بستگی دارد.
بحران اطلاعات نادرست در جستجوی مبتنی بر هوش مصنوعی فقط یک مشکل فنی نیست. این یک مشکل اجتماعی است. این امر مستلزم پاسخی چندوجهی است که نه تنها مهندسان و توسعهدهندگان، بلکه روزنامهنگاران، مربیان، سیاستگذاران و عموم مردم را نیز در بر میگیرد. ما باید به طور جمعی برای ایجاد یک اکوسیستم اطلاعاتی قابل اعتمادتر، شفافتر و پاسخگوتر تلاش کنیم، اکوسیستمی که به نیازهای شهروندان آگاه خدمت کند، نه تامینکنندگان دروغ.
مسیر فعلی ناپایدار است. اگر جستجوی هوش مصنوعی همچنان سرعت و راحتی را بر دقت و حقیقت اولویت دهد، ما در معرض خطر ایجاد دنیایی هستیم که در آن اطلاعات نادرست حاکم است و جایی که مفهوم واقعیت عینی به طور فزایندهای گریزان میشود. خطرات به سادگی بسیار زیاد است که اجازه دهیم این اتفاق بیفتد.