مشکل ارجاعات نادرست
مطالعهای جدید نشان داده است که نسل کنونی ابزارهای جستجوی هوش مصنوعی مولد، نقصی اساسی دارند: آنها اغلب نمیتوانند ارجاعات دقیقی برای مقالات خبری ارائه دهند. این محدودیت، یادآور مهمی از مرزهای این فناوریهای به سرعت در حال تحول است، به خصوص که پلتفرمهای رسانههای اجتماعی به طور فزایندهای آنها را در تجربیات کاربری ادغام میکنند.
مرکز Tow برای روزنامهنگاری دیجیتال این مطالعه را انجام داده و یافتههای آن نگرانکننده است. این تحقیق نشان میدهد که اکثر موتورهای جستجوی هوش مصنوعی برجسته، در ارجاع صحیح به مقالات خبری مشکل دارند. این ابزارها اغلب پیوندهای مرجع را جعل میکنند یا به سادگی نمیتوانند هنگام پرسش در مورد یک منبع، پاسخی ارائه دهند.
این مطالعه به صورت بصری عملکرد رباتهای گفتگوی هوش مصنوعی مختلف را در یک نمودار نشان داد، که عدم اطمینان کلی در ارائه ارجاعات مرتبط را آشکار میکرد. به طور قابل توجهی، ربات گفتگوی Grok متعلق به xAI، که ایلان ماسک آن را به عنوان ‘راستگوترین’ هوش مصنوعی تبلیغ کرده است، در این زمینه جزو کم دقتترین یا غیرقابل اعتمادترین منابع بود.
در این گزارش آمده است:
“به طور کلی، رباتهای گفتگو به بیش از 60 درصد از پرسشها پاسخهای نادرست دادند. در پلتفرمهای مختلف، سطح نادرستی متفاوت بود، به طوری که Perplexity به 37 درصد از پرسشها به اشتباه پاسخ داد، در حالی که Grok نرخ خطای بسیار بالاتری داشت و به 94 درصد از پرسشها به اشتباه پاسخ داد.”
این امر نابرابری قابل توجهی را در سطوح دقت ابزارهای مختلف هوش مصنوعی برجسته میکند، به طوری که برخی از آنها به طور قابل توجهی بدتر از دیگران عمل میکنند.
دسترسی به محتوای محدود شده
یکی دیگر از جنبههای نگرانکننده که توسط این گزارش کشف شد، مربوط به توانایی ابزارهای هوش مصنوعی برای دسترسی و ارائه اطلاعات از منابعی است که اقداماتی را برای جلوگیری از خزش (scraping) هوش مصنوعی اجرا کردهاند.
در این گزارش آمده است:
“در برخی موارد، رباتهای گفتگو یا به پرسشهای ناشرانی که به آنها اجازه دسترسی به محتوایشان را داده بودند، پاسخ نادرست دادند یا از پاسخ دادن خودداری کردند. از سوی دیگر، گاهی اوقات به پرسشهایی درباره ناشرانی که نباید به محتوای آنها دسترسی میداشتند، به درستی پاسخ دادند.”
این مشاهده نشان میدهد که برخی از ارائهدهندگان هوش مصنوعی ممکن است به دستورات robots.txt که برای جلوگیری از دسترسی آنها به مطالب دارای حق چاپ طراحی شدهاند، احترام نگذارند. این امر سوالاتی را در مورد پیامدهای اخلاقی و قانونی دور زدن این محدودیتها توسط ابزارهای هوش مصنوعی ایجاد میکند.
اتکای فزاینده به هوش مصنوعی برای تحقیق
مسئله اصلی در اتکای فزاینده به ابزارهای هوش مصنوعی به عنوان موتورهای جستجو، به ویژه در میان کاربران جوانتر نهفته است. بسیاری از جوانان اکنون با ChatGPT به عنوان ابزار اصلی تحقیق خود بزرگ میشوند. این روند با توجه به غیرقابل اعتماد بودن اثبات شده ابزارهای هوش مصنوعی در ارائه اطلاعات دقیق و آموزش قابل اعتماد کاربران در مورد موضوعات کلیدی، نگرانکننده است.
یافتههای این تحقیق یادآور این نکته است که پاسخهای تولید شده توسط هوش مصنوعی همیشه ارزشمند یا حتی قابل استفاده نیستند. خطر واقعی در ترویج این ابزارها به عنوان جایگزینی برای تحقیقات واقعی و میانبرهایی برای دانش نهفته است. به ویژه برای کاربران جوانتر، این امر میتواند منجر به نسلی از افرادی شود که کمتر آگاه، کمتر مجهز و بیش از حد متکی به سیستمهای بالقوه معیوب هستند.
هوش مصنوعی به عنوان یک ابزار، نه یک راه حل
مارک کوبان، تاجر مشهور، به طور موثری این چالش را در طول جلسهای در SXSW خلاصه کرد. او تاکید کرد:
“هوش مصنوعی هرگز پاسخ نیست. هوش مصنوعی ابزار است. هر مهارتی که دارید، میتوانید از هوش مصنوعی برای تقویت آن استفاده کنید.”
دیدگاه کوبان تاکید میکند که در حالی که ابزارهای هوش مصنوعی میتوانند مزایایی را ارائه دهند و باید برای پتانسیل آنها برای افزایش عملکرد مورد بررسی قرار گیرند، آنها راهحلهای مستقلی نیستند.
هوش مصنوعی میتواند محتوای ویدیویی تولید کند، اما فاقد ظرفیت توسعه یک روایت قانعکننده، یعنی مهمترین عنصر است. به طور مشابه، هوش مصنوعی میتواند کدهایی را برای کمک به توسعه اپلیکیشن تولید کند، اما نمیتواند خود اپلیکیشن واقعی را بسازد.
این محدودیتها نقش ضروری تفکر انتقادی و تخصص انسانی را برجسته میکند. خروجیهای هوش مصنوعی بدون شک میتوانند در کارهای مختلف کمک کنند، اما نمیتوانند جایگزین نیاز اساسی به نبوغ و مهارت انسانی شوند.
نیاز به ارزیابی انتقادی و توسعه مهارت
نگرانی، به ویژه در زمینه این تحقیق، این است که به جوانان القا میشود که ابزارهای هوش مصنوعی میتوانند پاسخهای قطعی ارائه دهند. با این حال، این مطالعه، همراه با تلاشهای تحقیقاتی متعدد دیگر، به طور مداوم نشان میدهد که هوش مصنوعی در این زمینه به طور خاص مهارت ندارد.
به جای ترویج هوش مصنوعی به عنوان جایگزینی برای روشهای تحقیق سنتی، تمرکز باید بر آموزش افراد در مورد چگونگی این سیستمها برای تقویت تواناییهای موجود آنها باشد. برای استفاده موثر از هوش مصنوعی، کاربران ابتدا باید دارای مهارتهای تحقیق و تحلیل قوی و همچنین تخصص در زمینههای مربوطه باشند.
بررسی عمیقتر پیامدها
پیامدهای این تحقیق فراتر از نگرانی فوری ارجاعات نادرست است. این امر سوالات گستردهتری را در مورد نقش هوش مصنوعی در شکلدهی درک ما از جهان و پتانسیل انتشار سریع اطلاعات نادرست مطرح میکند.
1. فرسایش اعتماد به منابع اطلاعاتی:
هنگامی که ابزارهای هوش مصنوعی به طور مداوم ارجاعات نادرست یا جعلی ارائه میدهند، اعتماد به اکوسیستم اطلاعاتی به عنوان یک کل را از بین میبرد. کاربران ممکن است به طور فزایندهای نسبت به همه منابع شکاک شوند، که تشخیص بین اطلاعات معتبر و غیرقابل اعتماد را دشوار میکند.
2. تأثیر بر آموزش و یادگیری:
اتکا به ابزارهای هوش مصنوعی برای تحقیق، به ویژه در میان کاربران جوانتر، میتواند تأثیرات مضری بر آموزش و یادگیری داشته باشد. دانشآموزان ممکن است درک سطحی از موضوعات پیدا کنند و فاقد مهارتهای تفکر انتقادی لازم برای ارزیابی موثر اطلاعات باشند.
3. مسئولیتهای اخلاقی توسعهدهندگان هوش مصنوعی:
یافتههای این مطالعه مسئولیتهای اخلاقی توسعهدهندگان هوش مصنوعی را برجسته میکند. آنها باید دقت و شفافیت را در سیستمهای خود در اولویت قرار دهند و اطمینان حاصل کنند که ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست یا تضعیف یکپارچگی منابع اطلاعاتی استفاده نمیشوند.
4. نیاز به سواد رسانهای و تفکر انتقادی:
در عصری که تحت سلطه محتوای تولید شده توسط هوش مصنوعی است، سواد رسانهای و مهارتهای تفکر انتقادی بیش از هر زمان دیگری اهمیت دارند. افراد باید برای ارزیابی انتقادی اطلاعات، شناسایی سوگیریها و تشخیص بین منابع معتبر و غیرقابل اعتماد مجهز شوند.
5. آینده هوش مصنوعی در تحقیق و بازیابی اطلاعات:
این تحقیق بر نیاز به توسعه و اصلاح مداوم ابزارهای هوش مصنوعی برای تحقیق و بازیابی اطلاعات تاکید میکند. در حالی که هوش مصنوعی پتانسیل ایجاد انقلابی در این زمینهها را دارد، رسیدگی به محدودیتهای فعلی و اطمینان از استفاده مسئولانه و اخلاقی از این ابزارها بسیار مهم است.
گسترش نگرانیهای خاص
بیایید بیشتر به برخی از نگرانیهای خاص مطرح شده توسط این تحقیق بپردازیم:
الف. مشکل ‘توهم’:
رباتهای گفتگوی هوش مصنوعی به دلیل تمایل به ‘توهم’، یا تولید اطلاعاتی که کاملاً جعلی است، شناخته شدهاند. این امر به ویژه در زمینه ارجاعات، که در آن دقت بسیار مهم است، مشکلساز است. یافته این مطالعه مبنی بر اینکه ابزارهای هوش مصنوعی اغلب پیوندهای مرجع را جعل میکنند، شدت این مسئله را برجسته میکند.
ب. مشکل سوگیری:
مدلهای هوش مصنوعی بر روی مجموعه دادههای وسیعی آموزش داده میشوند که ممکن است حاوی سوگیریهایی باشند که منعکسکننده تعصبات اجتماعی یا دیدگاههای منحرف هستند. این سوگیریها میتوانند در پاسخهای هوش مصنوعی ظاهر شوند و منجر به اطلاعات نادرست یا گمراهکننده شوند. این امر به ویژه زمانی نگرانکننده است که از ابزارهای هوش مصنوعی برای تحقیق در مورد موضوعات حساس یا بحثبرانگیز استفاده میشود.
ج. مشکل شفافیت:
عملکرد درونی بسیاری از مدلهای هوش مصنوعی اغلب مبهم است، که درک چگونگی رسیدن آنها به نتیجهگیریهایشان را دشوار میکند. این عدم شفافیت، شناسایی و تصحیح خطاها یا سوگیریها در سیستم را چالشبرانگیز میکند.
د. مشکل حق چاپ:
یافته این مطالعه مبنی بر اینکه برخی از ابزارهای هوش مصنوعی به محتوای منابعی که آنها را مسدود کردهاند دسترسی دارند، نگرانیهای جدی در مورد حق چاپ را ایجاد میکند. توسعهدهندگان هوش مصنوعی باید به حقوق مالکیت معنوی احترام بگذارند و اطمینان حاصل کنند که ابزارهای آنها برای نقض حق چاپ استفاده نمیشوند.
مسیر پیش رو: توسعه و آموزش مسئولانه هوش مصنوعی
مسیر پیش رو نیازمند رویکردی دو جانبه است: توسعه مسئولانه هوش مصنوعی و آموزش جامع.
1. توسعه مسئولانه هوش مصنوعی:
توسعهدهندگان هوش مصنوعی باید دقت، شفافیت و ملاحظات اخلاقی را در طراحی و پیادهسازی سیستمهای خود در اولویت قرار دهند. این شامل:
- بهبود دقت ارجاع: توسعه تکنیکهایی برای اطمینان از اینکه ابزارهای هوش مصنوعی ارجاعات دقیق و قابل تاییدی ارائه میدهند.
- رسیدگی به سوگیری: پیادهسازی روشهایی برای کاهش سوگیری در مدلهای هوش مصنوعی و اطمینان از اینکه آنها اطلاعات منصفانه و متعادلی ارائه میدهند.
- افزایش شفافیت: شفافتر و قابل توضیحتر کردن مدلهای هوش مصنوعی، به کاربران اجازه میدهد تا نحوه رسیدن آنها به نتیجهگیریهایشان را درک کنند.
- احترام به حق چاپ: اطمینان از اینکه ابزارهای هوش مصنوعی به حقوق مالکیت معنوی احترام میگذارند و بدون اجازه به مطالب دارای حق چاپ دسترسی پیدا نمیکنند یا از آنها استفاده نمیکنند.
2. آموزش جامع:
افراد، به ویژه جوانان، باید در مورد قابلیتها و محدودیتهای ابزارهای هوش مصنوعی آموزش ببینند. این شامل:
- ترویج سواد رسانهای: آموزش مهارتهای تفکر انتقادی و توانایی ارزیابی اطلاعات از منابع مختلف.
- تاکید بر مهارتهای تحقیق: تقویت اهمیت روشهای تحقیق سنتی و توانایی تایید مستقل اطلاعات.
- درک محدودیتهای هوش مصنوعی: آموزش کاربران در مورد پتانسیل هوش مصنوعی برای تولید اطلاعات نادرست یا مغرضانه.
- تشویق به استفاده مسئولانه: ترویج استفاده مسئولانه و اخلاقی از ابزارهای هوش مصنوعی.
با ترکیب توسعه مسئولانه هوش مصنوعی با آموزش جامع، میتوانیم از پتانسیل هوش مصنوعی استفاده کنیم و در عین حال خطرات آن را کاهش دهیم. هدف ایجاد آیندهای است که در آن هوش مصنوعی به عنوان ابزاری ارزشمند برای یادگیری و کشف عمل کند، نه منبعی برای اطلاعات نادرست و سردرگمی. یافتههای این مطالعه یادآور مهمی از کاری است که در پیش است. سفر به سوی یک جامعه واقعاً آگاه و دارای سواد هوش مصنوعی نیازمند هوشیاری مداوم، ارزیابی انتقادی و تعهد به نوآوری مسئولانه است.