گرایش کاربران X به گروک: نگرانی‌ها

ظهور هوش مصنوعی در تایید اطلاعات

ادغام هوش مصنوعی در پلتفرم‌های رسانه‌های اجتماعی چیز جدیدی نیست. اقدام X برای اجازه دادن به کاربران برای تعامل با Grok xAI، به نوعی، صرفاً پیروی از یک روند است. این امر رویکرد Perplexity را منعکس می‌کند، که یک حساب خودکار در X برای ارائه تجربه‌ای مشابه دارد.

پس از اینکه xAI حضور خودکار Grok را در X ایجاد کرد، کاربران به سرعت شروع به کاوش در قابلیت‌های آن، پرسیدن سوال و جستجوی پاسخ کردند. در مناطقی مانند هند، یک الگوی نگران‌کننده خاص پدیدار شد: افراد شروع به استفاده از Grok برای تأیید نظرات و پرس‌و‌جوها کردند، که بسیاری از آنها ایدئولوژی‌های سیاسی خاصی را هدف قرار می‌دادند.

نگرانی‌های راستی‌آزمایان انسانی

این اتکا به Grok، و در واقع هر دستیار هوش مصنوعی از این نوع، برای راستی‌آزمایی، دلیلی برای نگرانی جدی است. ماهیت این ربات‌های هوش مصنوعی این است که می‌توانند پاسخ‌هایی را فرموله کنند که به نظر قانع‌کننده می‌رسند، صرف نظر از صحت واقعی آنها. این یک نگرانی نظری نیست. Grok سابقه مستندی در انتشار اخبار جعلی و اطلاعات نادرست دارد.

یک نمونه قابل توجه رخ داد، جایی که چندین وزیر امور خارجه از ماسک درخواست کردند تا تغییرات اساسی در Grok ایجاد کند. این درخواست فوری پس از انتشار اطلاعات گمراه‌کننده، تولید شده توسط دستیار هوش مصنوعی، در شبکه‌های اجتماعی، زنگ خطر را در آستانه انتخابات به صدا درآورد.

Grok در این مورد تنها نیست. سایر ربات‌های گفتگوی برجسته، از جمله ChatGPT OpenAI و Gemini گوگل، نیز در تولید اطلاعات نادرست مربوط به انتخابات مقصر شناخته شدند. محققان اطلاعات نادرست بیشتر بر پتانسیل سوء استفاده تأکید کردند و در سال 2023 فاش کردند که ربات‌های گفتگوی هوش مصنوعی مانند ChatGPT می‌توانند به راحتی برای تولید متون متقاعدکننده حاوی روایت‌های گمراه‌کننده مورد سوء استفاده قرار گیرند.

توهم اصالت

آنجی هولان، مدیر شبکه بین‌المللی راستی‌آزمایی (IFCN) در پوینتر، مسئله اصلی را بیان کرد و گفت: ‘دستیاران هوش مصنوعی، مانند Grok، واقعاً در استفاده از زبان طبیعی مهارت دارند و پاسخی می‌دهند که به نظر می‌رسد یک انسان آن را گفته است. و به این ترتیب، محصولات هوش مصنوعی این ادعا را در مورد طبیعی بودن و پاسخ‌های معتبر دارند، حتی زمانی که به طور بالقوه بسیار اشتباه هستند. این خطر در اینجا خواهد بود.’

همانطور که هولان برجسته می‌کند، خطر در ظاهر فریبنده اصالت نهفته است. توانایی هوش مصنوعی در تقلید از زبان انسان، توهم اعتبار ایجاد می‌کند، حتی زمانی که اطلاعات زیربنایی ناقص یا کاملاً ساختگی باشد.

تفاوت اساسی: هوش مصنوعی در مقابل راستی‌آزمایان انسانی

تضاد بین دستیاران هوش مصنوعی و راستی‌آزمایان انسانی آشکار است. راستی‌آزمایان انسانی به طور دقیق اطلاعات را تأیید می‌کنند و از منابع متعدد و معتبر استفاده می‌کنند. آنها با شفافیت عمل می‌کنند، نام و وابستگی سازمانی خود را به یافته‌های خود پیوست می‌کنند، در نتیجه پاسخگویی و تقویت اعتبار را تضمین می‌کنند.

پراتیک سینها، یکی از بنیانگذاران وب‌سایت راستی‌آزمایی غیرانتفاعی هند Alt News، اشاره کرد که در حالی که پاسخ‌های Grok ممکن است در حال حاضر قانع‌کننده به نظر برسند، دقت آن اساساً توسط داده‌هایی که دریافت می‌کند محدود می‌شود. او با برجسته کردن مسئله حیاتی شفافیت منبع داده، خاطرنشان کرد: ‘چه کسی قرار است تصمیم بگیرد که چه داده‌هایی به آن ارائه شود، و اینجاست که دخالت دولت و غیره وارد تصویر می‌شود.’

سینها تاکید کرد که فقدان شفافیت، زمینه ای برای آسیب بالقوه است. ‘هر چیزی که فاقد شفافیت باشد باعث آسیب می‌شود زیرا هر چیزی که فاقد شفافیت باشد می‌تواند به هر شکلی قالب‌گیری شود.’

اعتراف خود گروک: پتانسیل سوء استفاده

در یک پیچ و تاب تا حدودی کنایه‌آمیز، حساب Grok در X، در یکی از پاسخ‌های پست شده خود، اعتراف کرد که ‘می‌توان از آن سوء استفاده کرد - برای انتشار اطلاعات نادرست و نقض حریم خصوصی.’

با وجود این اعتراف، حساب خودکار هیچ گونه سلب مسئولیتی را برای کاربرانی که پاسخ‌های آن را دریافت می‌کنند، ارائه نمی‌دهد. این حذف، کاربران را در معرض اطلاعات نادرست قرار می‌دهد، به ویژه در مواردی که هوش مصنوعی پاسخ را ‘توهم’ کرده است، پدیده‌ای که به خوبی در حوزه هوش مصنوعی مستند شده است که در آن سیستم اطلاعات نادرست یا بی‌معنی تولید می‌کند.

آنوشکا جین، محقق همکار در آزمایشگاه آینده دیجیتال، در این مورد توضیح داد و گفت: ‘ممکن است اطلاعاتی را برای ارائه پاسخ ایجاد کند.’ این گرایش به جعل اطلاعات، محدودیت‌های ذاتی هوش مصنوعی را در زمینه راستی‌آزمایی برجسته می‌کند.

معضل داده‌های آموزشی

یک لایه پیچیدگی دیگر از سوال داده‌های آموزشی Grok ناشی می‌شود. عدم اطمینان در مورد میزان استفاده Grok از پست‌های X به عنوان مواد آموزشی، و اقدامات کنترل کیفیت، در صورت وجود، برای راستی‌آزمایی چنین پست‌هایی وجود دارد. به نظر می‌رسد تغییری که قبلاً اجرا شده است، به Grok دسترسی پیش‌فرض به داده‌های کاربر X را می‌دهد، که نگرانی‌هایی را در مورد پتانسیل هوش مصنوعی برای جذب و انتشار اطلاعات نادرست موجود در پلتفرم ایجاد می‌کند.

مصرف عمومی در مقابل خصوصی اطلاعات تولید شده توسط هوش مصنوعی

یکی دیگر از نگرانی‌های مهم حول محور ماهیت عمومی دستیاران هوش مصنوعی مانند Grok در پلتفرم‌های رسانه‌های اجتماعی می‌چرخد. برخلاف تعامل با ربات‌های گفتگو مانند ChatGPT، که معمولاً در یک محیط خصوصی رخ می‌دهد، پاسخ‌های Grok به صورت عمومی ارائه می‌شوند.

این انتشار عمومی وضعیتی را ایجاد می‌کند که در آن، حتی اگر یک کاربر آگاه باشد که اطلاعات ارائه شده توسط هوش مصنوعی ممکن است نادرست باشد، سایر کاربران پلتفرم ممکن است همچنان آن را به عنوان حقیقت بپذیرند. این می‌تواند منجر به پیامدهای جدی اجتماعی شود.

سوابق تاریخی وجود دارد. به عنوان مثال، هند شاهد حوادث غم‌انگیز لینچ کردن اوباش بود که توسط اطلاعات نادرست منتشر شده از طریق واتس‌اپ دامن زده شد. این رویدادها، در حالی که پیش از در دسترس بودن گسترده هوش مصنوعی مولد هستند، به عنوان یادآوری تلخ از خطرات دنیای واقعی اطلاعات نادرست کنترل نشده عمل می‌کنند. ظهور GenAI، با توانایی آن در تولید محتوای مصنوعی که به طور قابل توجهی واقعی به نظر می‌رسد، تنها این خطرات را تقویت کرده است.

نرخ خطای هوش مصنوعی

هولان از IFCN هشدار داد که، ‘اگر تعداد زیادی از این پاسخ‌های Grok را ببینید، خواهید گفت، هی، خب، بیشتر آنها درست هستند، و ممکن است اینطور باشد، اما برخی از آنها اشتباه خواهند بود. و چه تعداد؟ این کسر کوچکی نیست. برخی از مطالعات تحقیقاتی نشان داده‌اند که مدل‌های هوش مصنوعی در معرض نرخ خطای 20 درصد هستند… و وقتی اشتباه می‌شود، می‌تواند واقعاً با پیامدهای دنیای واقعی اشتباه شود.’

نرخ خطای 20 درصد، همانطور که هولان برجسته می‌کند، رقم قابل توجهی است. این امر بر غیرقابل اعتماد بودن ذاتی هوش مصنوعی در موقعیت‌هایی که نیاز به دقت واقعی دارند، تأکید می‌کند. و، همانطور که او تأکید می‌کند، پیامدهای این خطاها می‌تواند عمیق باشد و بسیار فراتر از قلمرو دیجیتال باشد.

هوش مصنوعی: ابزاری، نه جایگزینی برای قضاوت انسانی

در حالی که شرکت‌های هوش مصنوعی، از جمله xAI، به طور مداوم مدل‌های خود را برای دستیابی به ارتباطات شبیه‌تر به انسان اصلاح می‌کنند، واقعیت اساسی باقی می‌ماند: هوش مصنوعی نمی‌تواند و نباید جایگزین قضاوت انسانی شود، به ویژه در حوزه حیاتی راستی‌آزمایی.

روند در میان شرکت‌های فناوری برای کشف راه‌هایی برای کاهش اتکا به راستی‌آزمایان انسانی، دلیلی برای نگرانی است. پلتفرم‌هایی مانند X و Meta مفهوم راستی‌آزمایی جمع‌سپاری شده را پذیرفته‌اند، که نمونه آن ابتکاراتی مانند ‘Community Notes’ است. این تغییرات، در حالی که به طور بالقوه مزایای خاصی را ارائه می‌دهند، همچنین سوالاتی را در مورد فرسایش بالقوه استانداردهای دقیق راستی‌آزمایی ایجاد می‌کنند.

آیا آونگ به سمت راستی‌آزمایی انسانی برمی‌گردد؟

سینها از Alt News دیدگاهی خوش‌بینانه ابراز کرد و پیشنهاد کرد که مردم در نهایت یاد خواهند گرفت که بین خروجی‌های ماشین‌ها و کار راستی‌آزمایان انسانی تمایز قائل شوند و در نهایت برای دقت و قابلیت اطمینان دومی ارزش قائل شوند.

هولان از IFCN پیش‌بینی کرد: ‘ما شاهد بازگشت آونگ به سمت راستی‌آزمایی بیشتر خواهیم بود.’

با این حال، او هشدار داد که در این بین، راستی‌آزمایان احتمالاً به دلیل گسترش سریع اطلاعات تولید شده توسط هوش مصنوعی، با افزایش حجم کاری مواجه خواهند شد. چالش این خواهد بود که به طور موثر با موج اطلاعات نادرست مقابله کنیم و اطمینان حاصل کنیم که عموم مردم با حقیقت آگاه می‌شوند، نه با توهمات قانع‌کننده.

سوال اصلی: اهمیت دادن به حقیقت

در قلب این موضوع یک سوال اساسی نهفته است: ‘آیا واقعاً به آنچه واقعاً درست است اهمیت می‌دهید یا نه؟ آیا فقط به دنبال ظاهر چیزی هستید که درست به نظر می‌رسد و احساس می‌شود بدون اینکه واقعاً درست باشد؟ زیرا این همان چیزی است که کمک هوش مصنوعی به شما می‌دهد.’ هولان بیان کرد.

این سوال معضل حیاتی ناشی از ظهور هوش مصنوعی در انتشار اطلاعات را در بر می‌گیرد. آیا ما، به عنوان یک جامعه، حاضریم راحتی و ظاهر حقیقت را بر فرآیند طاقت‌فرسای تأیید حقایق اولویت دهیم؟ پاسخ به این سوال در نهایت آینده اطلاعات را شکل خواهد داد و تعیین می‌کند که آیا ما تسلیم دنیایی از واقعیت‌های ساختگی می‌شویم یا از اصول حقیقت و دقت حمایت می‌کنیم.