ظهور هوش مصنوعی در تایید اطلاعات
ادغام هوش مصنوعی در پلتفرمهای رسانههای اجتماعی چیز جدیدی نیست. اقدام X برای اجازه دادن به کاربران برای تعامل با Grok xAI، به نوعی، صرفاً پیروی از یک روند است. این امر رویکرد Perplexity را منعکس میکند، که یک حساب خودکار در X برای ارائه تجربهای مشابه دارد.
پس از اینکه xAI حضور خودکار Grok را در X ایجاد کرد، کاربران به سرعت شروع به کاوش در قابلیتهای آن، پرسیدن سوال و جستجوی پاسخ کردند. در مناطقی مانند هند، یک الگوی نگرانکننده خاص پدیدار شد: افراد شروع به استفاده از Grok برای تأیید نظرات و پرسوجوها کردند، که بسیاری از آنها ایدئولوژیهای سیاسی خاصی را هدف قرار میدادند.
نگرانیهای راستیآزمایان انسانی
این اتکا به Grok، و در واقع هر دستیار هوش مصنوعی از این نوع، برای راستیآزمایی، دلیلی برای نگرانی جدی است. ماهیت این رباتهای هوش مصنوعی این است که میتوانند پاسخهایی را فرموله کنند که به نظر قانعکننده میرسند، صرف نظر از صحت واقعی آنها. این یک نگرانی نظری نیست. Grok سابقه مستندی در انتشار اخبار جعلی و اطلاعات نادرست دارد.
یک نمونه قابل توجه رخ داد، جایی که چندین وزیر امور خارجه از ماسک درخواست کردند تا تغییرات اساسی در Grok ایجاد کند. این درخواست فوری پس از انتشار اطلاعات گمراهکننده، تولید شده توسط دستیار هوش مصنوعی، در شبکههای اجتماعی، زنگ خطر را در آستانه انتخابات به صدا درآورد.
Grok در این مورد تنها نیست. سایر رباتهای گفتگوی برجسته، از جمله ChatGPT OpenAI و Gemini گوگل، نیز در تولید اطلاعات نادرست مربوط به انتخابات مقصر شناخته شدند. محققان اطلاعات نادرست بیشتر بر پتانسیل سوء استفاده تأکید کردند و در سال 2023 فاش کردند که رباتهای گفتگوی هوش مصنوعی مانند ChatGPT میتوانند به راحتی برای تولید متون متقاعدکننده حاوی روایتهای گمراهکننده مورد سوء استفاده قرار گیرند.
توهم اصالت
آنجی هولان، مدیر شبکه بینالمللی راستیآزمایی (IFCN) در پوینتر، مسئله اصلی را بیان کرد و گفت: ‘دستیاران هوش مصنوعی، مانند Grok، واقعاً در استفاده از زبان طبیعی مهارت دارند و پاسخی میدهند که به نظر میرسد یک انسان آن را گفته است. و به این ترتیب، محصولات هوش مصنوعی این ادعا را در مورد طبیعی بودن و پاسخهای معتبر دارند، حتی زمانی که به طور بالقوه بسیار اشتباه هستند. این خطر در اینجا خواهد بود.’
همانطور که هولان برجسته میکند، خطر در ظاهر فریبنده اصالت نهفته است. توانایی هوش مصنوعی در تقلید از زبان انسان، توهم اعتبار ایجاد میکند، حتی زمانی که اطلاعات زیربنایی ناقص یا کاملاً ساختگی باشد.
تفاوت اساسی: هوش مصنوعی در مقابل راستیآزمایان انسانی
تضاد بین دستیاران هوش مصنوعی و راستیآزمایان انسانی آشکار است. راستیآزمایان انسانی به طور دقیق اطلاعات را تأیید میکنند و از منابع متعدد و معتبر استفاده میکنند. آنها با شفافیت عمل میکنند، نام و وابستگی سازمانی خود را به یافتههای خود پیوست میکنند، در نتیجه پاسخگویی و تقویت اعتبار را تضمین میکنند.
پراتیک سینها، یکی از بنیانگذاران وبسایت راستیآزمایی غیرانتفاعی هند Alt News، اشاره کرد که در حالی که پاسخهای Grok ممکن است در حال حاضر قانعکننده به نظر برسند، دقت آن اساساً توسط دادههایی که دریافت میکند محدود میشود. او با برجسته کردن مسئله حیاتی شفافیت منبع داده، خاطرنشان کرد: ‘چه کسی قرار است تصمیم بگیرد که چه دادههایی به آن ارائه شود، و اینجاست که دخالت دولت و غیره وارد تصویر میشود.’
سینها تاکید کرد که فقدان شفافیت، زمینه ای برای آسیب بالقوه است. ‘هر چیزی که فاقد شفافیت باشد باعث آسیب میشود زیرا هر چیزی که فاقد شفافیت باشد میتواند به هر شکلی قالبگیری شود.’
اعتراف خود گروک: پتانسیل سوء استفاده
در یک پیچ و تاب تا حدودی کنایهآمیز، حساب Grok در X، در یکی از پاسخهای پست شده خود، اعتراف کرد که ‘میتوان از آن سوء استفاده کرد - برای انتشار اطلاعات نادرست و نقض حریم خصوصی.’
با وجود این اعتراف، حساب خودکار هیچ گونه سلب مسئولیتی را برای کاربرانی که پاسخهای آن را دریافت میکنند، ارائه نمیدهد. این حذف، کاربران را در معرض اطلاعات نادرست قرار میدهد، به ویژه در مواردی که هوش مصنوعی پاسخ را ‘توهم’ کرده است، پدیدهای که به خوبی در حوزه هوش مصنوعی مستند شده است که در آن سیستم اطلاعات نادرست یا بیمعنی تولید میکند.
آنوشکا جین، محقق همکار در آزمایشگاه آینده دیجیتال، در این مورد توضیح داد و گفت: ‘ممکن است اطلاعاتی را برای ارائه پاسخ ایجاد کند.’ این گرایش به جعل اطلاعات، محدودیتهای ذاتی هوش مصنوعی را در زمینه راستیآزمایی برجسته میکند.
معضل دادههای آموزشی
یک لایه پیچیدگی دیگر از سوال دادههای آموزشی Grok ناشی میشود. عدم اطمینان در مورد میزان استفاده Grok از پستهای X به عنوان مواد آموزشی، و اقدامات کنترل کیفیت، در صورت وجود، برای راستیآزمایی چنین پستهایی وجود دارد. به نظر میرسد تغییری که قبلاً اجرا شده است، به Grok دسترسی پیشفرض به دادههای کاربر X را میدهد، که نگرانیهایی را در مورد پتانسیل هوش مصنوعی برای جذب و انتشار اطلاعات نادرست موجود در پلتفرم ایجاد میکند.
مصرف عمومی در مقابل خصوصی اطلاعات تولید شده توسط هوش مصنوعی
یکی دیگر از نگرانیهای مهم حول محور ماهیت عمومی دستیاران هوش مصنوعی مانند Grok در پلتفرمهای رسانههای اجتماعی میچرخد. برخلاف تعامل با رباتهای گفتگو مانند ChatGPT، که معمولاً در یک محیط خصوصی رخ میدهد، پاسخهای Grok به صورت عمومی ارائه میشوند.
این انتشار عمومی وضعیتی را ایجاد میکند که در آن، حتی اگر یک کاربر آگاه باشد که اطلاعات ارائه شده توسط هوش مصنوعی ممکن است نادرست باشد، سایر کاربران پلتفرم ممکن است همچنان آن را به عنوان حقیقت بپذیرند. این میتواند منجر به پیامدهای جدی اجتماعی شود.
سوابق تاریخی وجود دارد. به عنوان مثال، هند شاهد حوادث غمانگیز لینچ کردن اوباش بود که توسط اطلاعات نادرست منتشر شده از طریق واتساپ دامن زده شد. این رویدادها، در حالی که پیش از در دسترس بودن گسترده هوش مصنوعی مولد هستند، به عنوان یادآوری تلخ از خطرات دنیای واقعی اطلاعات نادرست کنترل نشده عمل میکنند. ظهور GenAI، با توانایی آن در تولید محتوای مصنوعی که به طور قابل توجهی واقعی به نظر میرسد، تنها این خطرات را تقویت کرده است.
نرخ خطای هوش مصنوعی
هولان از IFCN هشدار داد که، ‘اگر تعداد زیادی از این پاسخهای Grok را ببینید، خواهید گفت، هی، خب، بیشتر آنها درست هستند، و ممکن است اینطور باشد، اما برخی از آنها اشتباه خواهند بود. و چه تعداد؟ این کسر کوچکی نیست. برخی از مطالعات تحقیقاتی نشان دادهاند که مدلهای هوش مصنوعی در معرض نرخ خطای 20 درصد هستند… و وقتی اشتباه میشود، میتواند واقعاً با پیامدهای دنیای واقعی اشتباه شود.’
نرخ خطای 20 درصد، همانطور که هولان برجسته میکند، رقم قابل توجهی است. این امر بر غیرقابل اعتماد بودن ذاتی هوش مصنوعی در موقعیتهایی که نیاز به دقت واقعی دارند، تأکید میکند. و، همانطور که او تأکید میکند، پیامدهای این خطاها میتواند عمیق باشد و بسیار فراتر از قلمرو دیجیتال باشد.
هوش مصنوعی: ابزاری، نه جایگزینی برای قضاوت انسانی
در حالی که شرکتهای هوش مصنوعی، از جمله xAI، به طور مداوم مدلهای خود را برای دستیابی به ارتباطات شبیهتر به انسان اصلاح میکنند، واقعیت اساسی باقی میماند: هوش مصنوعی نمیتواند و نباید جایگزین قضاوت انسانی شود، به ویژه در حوزه حیاتی راستیآزمایی.
روند در میان شرکتهای فناوری برای کشف راههایی برای کاهش اتکا به راستیآزمایان انسانی، دلیلی برای نگرانی است. پلتفرمهایی مانند X و Meta مفهوم راستیآزمایی جمعسپاری شده را پذیرفتهاند، که نمونه آن ابتکاراتی مانند ‘Community Notes’ است. این تغییرات، در حالی که به طور بالقوه مزایای خاصی را ارائه میدهند، همچنین سوالاتی را در مورد فرسایش بالقوه استانداردهای دقیق راستیآزمایی ایجاد میکنند.
آیا آونگ به سمت راستیآزمایی انسانی برمیگردد؟
سینها از Alt News دیدگاهی خوشبینانه ابراز کرد و پیشنهاد کرد که مردم در نهایت یاد خواهند گرفت که بین خروجیهای ماشینها و کار راستیآزمایان انسانی تمایز قائل شوند و در نهایت برای دقت و قابلیت اطمینان دومی ارزش قائل شوند.
هولان از IFCN پیشبینی کرد: ‘ما شاهد بازگشت آونگ به سمت راستیآزمایی بیشتر خواهیم بود.’
با این حال، او هشدار داد که در این بین، راستیآزمایان احتمالاً به دلیل گسترش سریع اطلاعات تولید شده توسط هوش مصنوعی، با افزایش حجم کاری مواجه خواهند شد. چالش این خواهد بود که به طور موثر با موج اطلاعات نادرست مقابله کنیم و اطمینان حاصل کنیم که عموم مردم با حقیقت آگاه میشوند، نه با توهمات قانعکننده.
سوال اصلی: اهمیت دادن به حقیقت
در قلب این موضوع یک سوال اساسی نهفته است: ‘آیا واقعاً به آنچه واقعاً درست است اهمیت میدهید یا نه؟ آیا فقط به دنبال ظاهر چیزی هستید که درست به نظر میرسد و احساس میشود بدون اینکه واقعاً درست باشد؟ زیرا این همان چیزی است که کمک هوش مصنوعی به شما میدهد.’ هولان بیان کرد.
این سوال معضل حیاتی ناشی از ظهور هوش مصنوعی در انتشار اطلاعات را در بر میگیرد. آیا ما، به عنوان یک جامعه، حاضریم راحتی و ظاهر حقیقت را بر فرآیند طاقتفرسای تأیید حقایق اولویت دهیم؟ پاسخ به این سوال در نهایت آینده اطلاعات را شکل خواهد داد و تعیین میکند که آیا ما تسلیم دنیایی از واقعیتهای ساختگی میشویم یا از اصول حقیقت و دقت حمایت میکنیم.