ابزارهای هوش مصنوعی در ارجاع دقیق منابع مشکل دارند

مشکل ارجاعات نادرست

مطالعه‌ای جدید نشان داده است که نسل کنونی ابزارهای جستجوی هوش مصنوعی مولد، نقصی اساسی دارند: آن‌ها اغلب نمی‌توانند ارجاعات دقیقی برای مقالات خبری ارائه دهند. این محدودیت، یادآور مهمی از مرزهای این فناوری‌های به سرعت در حال تحول است، به خصوص که پلتفرم‌های رسانه‌های اجتماعی به طور فزاینده‌ای آن‌ها را در تجربیات کاربری ادغام می‌کنند.

مرکز Tow برای روزنامه‌نگاری دیجیتال این مطالعه را انجام داده و یافته‌های آن نگران‌کننده است. این تحقیق نشان می‌دهد که اکثر موتورهای جستجوی هوش مصنوعی برجسته، در ارجاع صحیح به مقالات خبری مشکل دارند. این ابزارها اغلب پیوندهای مرجع را جعل می‌کنند یا به سادگی نمی‌توانند هنگام پرسش در مورد یک منبع، پاسخی ارائه دهند.

این مطالعه به صورت بصری عملکرد ربات‌های گفتگوی هوش مصنوعی مختلف را در یک نمودار نشان داد، که عدم اطمینان کلی در ارائه ارجاعات مرتبط را آشکار می‌کرد. به طور قابل توجهی، ربات گفتگوی Grok متعلق به xAI، که ایلان ماسک آن را به عنوان ‘راستگوترین’ هوش مصنوعی تبلیغ کرده است، در این زمینه جزو کم دقت‌ترین یا غیرقابل اعتمادترین منابع بود.

در این گزارش آمده است:

“به طور کلی، ربات‌های گفتگو به بیش از 60 درصد از پرسش‌ها پاسخ‌های نادرست دادند. در پلتفرم‌های مختلف، سطح نادرستی متفاوت بود، به طوری که Perplexity به 37 درصد از پرسش‌ها به اشتباه پاسخ داد، در حالی که Grok نرخ خطای بسیار بالاتری داشت و به 94 درصد از پرسش‌ها به اشتباه پاسخ داد.”

این امر نابرابری قابل توجهی را در سطوح دقت ابزارهای مختلف هوش مصنوعی برجسته می‌کند، به طوری که برخی از آن‌ها به طور قابل توجهی بدتر از دیگران عمل می‌کنند.

دسترسی به محتوای محدود شده

یکی دیگر از جنبه‌های نگران‌کننده که توسط این گزارش کشف شد، مربوط به توانایی ابزارهای هوش مصنوعی برای دسترسی و ارائه اطلاعات از منابعی است که اقداماتی را برای جلوگیری از خزش (scraping) هوش مصنوعی اجرا کرده‌اند.

در این گزارش آمده است:

“در برخی موارد، ربات‌های گفتگو یا به پرسش‌های ناشرانی که به آن‌ها اجازه دسترسی به محتوایشان را داده بودند، پاسخ نادرست دادند یا از پاسخ دادن خودداری کردند. از سوی دیگر، گاهی اوقات به پرسش‌هایی درباره ناشرانی که نباید به محتوای آن‌ها دسترسی می‌داشتند، به درستی پاسخ دادند.”

این مشاهده نشان می‌دهد که برخی از ارائه‌دهندگان هوش مصنوعی ممکن است به دستورات robots.txt که برای جلوگیری از دسترسی آن‌ها به مطالب دارای حق چاپ طراحی شده‌اند، احترام نگذارند. این امر سوالاتی را در مورد پیامدهای اخلاقی و قانونی دور زدن این محدودیت‌ها توسط ابزارهای هوش مصنوعی ایجاد می‌کند.

اتکای فزاینده به هوش مصنوعی برای تحقیق

مسئله اصلی در اتکای فزاینده به ابزارهای هوش مصنوعی به عنوان موتورهای جستجو، به ویژه در میان کاربران جوان‌تر نهفته است. بسیاری از جوانان اکنون با ChatGPT به عنوان ابزار اصلی تحقیق خود بزرگ می‌شوند. این روند با توجه به غیرقابل اعتماد بودن اثبات شده ابزارهای هوش مصنوعی در ارائه اطلاعات دقیق و آموزش قابل اعتماد کاربران در مورد موضوعات کلیدی، نگران‌کننده است.

یافته‌های این تحقیق یادآور این نکته است که پاسخ‌های تولید شده توسط هوش مصنوعی همیشه ارزشمند یا حتی قابل استفاده نیستند. خطر واقعی در ترویج این ابزارها به عنوان جایگزینی برای تحقیقات واقعی و میانبرهایی برای دانش نهفته است. به ویژه برای کاربران جوان‌تر، این امر می‌تواند منجر به نسلی از افرادی شود که کمتر آگاه، کمتر مجهز و بیش از حد متکی به سیستم‌های بالقوه معیوب هستند.

هوش مصنوعی به عنوان یک ابزار، نه یک راه حل

مارک کوبان، تاجر مشهور، به طور موثری این چالش را در طول جلسه‌ای در SXSW خلاصه کرد. او تاکید کرد:

“هوش مصنوعی هرگز پاسخ نیست. هوش مصنوعی ابزار است. هر مهارتی که دارید، می‌توانید از هوش مصنوعی برای تقویت آن استفاده کنید.”

دیدگاه کوبان تاکید می‌کند که در حالی که ابزارهای هوش مصنوعی می‌توانند مزایایی را ارائه دهند و باید برای پتانسیل آن‌ها برای افزایش عملکرد مورد بررسی قرار گیرند، آن‌ها راه‌حل‌های مستقلی نیستند.

هوش مصنوعی می‌تواند محتوای ویدیویی تولید کند، اما فاقد ظرفیت توسعه یک روایت قانع‌کننده، یعنی مهم‌ترین عنصر است. به طور مشابه، هوش مصنوعی می‌تواند کدهایی را برای کمک به توسعه اپلیکیشن تولید کند، اما نمی‌تواند خود اپلیکیشن واقعی را بسازد.

این محدودیت‌ها نقش ضروری تفکر انتقادی و تخصص انسانی را برجسته می‌کند. خروجی‌های هوش مصنوعی بدون شک می‌توانند در کارهای مختلف کمک کنند، اما نمی‌توانند جایگزین نیاز اساسی به نبوغ و مهارت انسانی شوند.

نیاز به ارزیابی انتقادی و توسعه مهارت

نگرانی، به ویژه در زمینه این تحقیق، این است که به جوانان القا می‌شود که ابزارهای هوش مصنوعی می‌توانند پاسخ‌های قطعی ارائه دهند. با این حال، این مطالعه، همراه با تلاش‌های تحقیقاتی متعدد دیگر، به طور مداوم نشان می‌دهد که هوش مصنوعی در این زمینه به طور خاص مهارت ندارد.

به جای ترویج هوش مصنوعی به عنوان جایگزینی برای روش‌های تحقیق سنتی، تمرکز باید بر آموزش افراد در مورد چگونگی این سیستم‌ها برای تقویت توانایی‌های موجود آن‌ها باشد. برای استفاده موثر از هوش مصنوعی، کاربران ابتدا باید دارای مهارت‌های تحقیق و تحلیل قوی و همچنین تخصص در زمینه‌های مربوطه باشند.

بررسی عمیق‌تر پیامدها

پیامدهای این تحقیق فراتر از نگرانی فوری ارجاعات نادرست است. این امر سوالات گسترده‌تری را در مورد نقش هوش مصنوعی در شکل‌دهی درک ما از جهان و پتانسیل انتشار سریع اطلاعات نادرست مطرح می‌کند.

1. فرسایش اعتماد به منابع اطلاعاتی:

هنگامی که ابزارهای هوش مصنوعی به طور مداوم ارجاعات نادرست یا جعلی ارائه می‌دهند، اعتماد به اکوسیستم اطلاعاتی به عنوان یک کل را از بین می‌برد. کاربران ممکن است به طور فزاینده‌ای نسبت به همه منابع شکاک شوند، که تشخیص بین اطلاعات معتبر و غیرقابل اعتماد را دشوار می‌کند.

2. تأثیر بر آموزش و یادگیری:

اتکا به ابزارهای هوش مصنوعی برای تحقیق، به ویژه در میان کاربران جوان‌تر، می‌تواند تأثیرات مضری بر آموزش و یادگیری داشته باشد. دانش‌آموزان ممکن است درک سطحی از موضوعات پیدا کنند و فاقد مهارت‌های تفکر انتقادی لازم برای ارزیابی موثر اطلاعات باشند.

3. مسئولیت‌های اخلاقی توسعه‌دهندگان هوش مصنوعی:

یافته‌های این مطالعه مسئولیت‌های اخلاقی توسعه‌دهندگان هوش مصنوعی را برجسته می‌کند. آن‌ها باید دقت و شفافیت را در سیستم‌های خود در اولویت قرار دهند و اطمینان حاصل کنند که ابزارهای هوش مصنوعی برای انتشار اطلاعات نادرست یا تضعیف یکپارچگی منابع اطلاعاتی استفاده نمی‌شوند.

4. نیاز به سواد رسانه‌ای و تفکر انتقادی:

در عصری که تحت سلطه محتوای تولید شده توسط هوش مصنوعی است، سواد رسانه‌ای و مهارت‌های تفکر انتقادی بیش از هر زمان دیگری اهمیت دارند. افراد باید برای ارزیابی انتقادی اطلاعات، شناسایی سوگیری‌ها و تشخیص بین منابع معتبر و غیرقابل اعتماد مجهز شوند.

5. آینده هوش مصنوعی در تحقیق و بازیابی اطلاعات:

این تحقیق بر نیاز به توسعه و اصلاح مداوم ابزارهای هوش مصنوعی برای تحقیق و بازیابی اطلاعات تاکید می‌کند. در حالی که هوش مصنوعی پتانسیل ایجاد انقلابی در این زمینه‌ها را دارد، رسیدگی به محدودیت‌های فعلی و اطمینان از استفاده مسئولانه و اخلاقی از این ابزارها بسیار مهم است.

گسترش نگرانی‌های خاص

بیایید بیشتر به برخی از نگرانی‌های خاص مطرح شده توسط این تحقیق بپردازیم:

الف. مشکل ‘توهم’:

ربات‌های گفتگوی هوش مصنوعی به دلیل تمایل به ‘توهم’، یا تولید اطلاعاتی که کاملاً جعلی است، شناخته شده‌اند. این امر به ویژه در زمینه ارجاعات، که در آن دقت بسیار مهم است، مشکل‌ساز است. یافته این مطالعه مبنی بر اینکه ابزارهای هوش مصنوعی اغلب پیوندهای مرجع را جعل می‌کنند، شدت این مسئله را برجسته می‌کند.

ب. مشکل سوگیری:

مدل‌های هوش مصنوعی بر روی مجموعه داده‌های وسیعی آموزش داده می‌شوند که ممکن است حاوی سوگیری‌هایی باشند که منعکس‌کننده تعصبات اجتماعی یا دیدگاه‌های منحرف هستند. این سوگیری‌ها می‌توانند در پاسخ‌های هوش مصنوعی ظاهر شوند و منجر به اطلاعات نادرست یا گمراه‌کننده شوند. این امر به ویژه زمانی نگران‌کننده است که از ابزارهای هوش مصنوعی برای تحقیق در مورد موضوعات حساس یا بحث‌برانگیز استفاده می‌شود.

ج. مشکل شفافیت:

عملکرد درونی بسیاری از مدل‌های هوش مصنوعی اغلب مبهم است، که درک چگونگی رسیدن آن‌ها به نتیجه‌گیری‌هایشان را دشوار می‌کند. این عدم شفافیت، شناسایی و تصحیح خطاها یا سوگیری‌ها در سیستم را چالش‌برانگیز می‌کند.

د. مشکل حق چاپ:

یافته این مطالعه مبنی بر اینکه برخی از ابزارهای هوش مصنوعی به محتوای منابعی که آن‌ها را مسدود کرده‌اند دسترسی دارند، نگرانی‌های جدی در مورد حق چاپ را ایجاد می‌کند. توسعه‌دهندگان هوش مصنوعی باید به حقوق مالکیت معنوی احترام بگذارند و اطمینان حاصل کنند که ابزارهای آن‌ها برای نقض حق چاپ استفاده نمی‌شوند.

مسیر پیش رو: توسعه و آموزش مسئولانه هوش مصنوعی

مسیر پیش رو نیازمند رویکردی دو جانبه است: توسعه مسئولانه هوش مصنوعی و آموزش جامع.

1. توسعه مسئولانه هوش مصنوعی:

توسعه‌دهندگان هوش مصنوعی باید دقت، شفافیت و ملاحظات اخلاقی را در طراحی و پیاده‌سازی سیستم‌های خود در اولویت قرار دهند. این شامل:

  • بهبود دقت ارجاع: توسعه تکنیک‌هایی برای اطمینان از اینکه ابزارهای هوش مصنوعی ارجاعات دقیق و قابل تاییدی ارائه می‌دهند.
  • رسیدگی به سوگیری: پیاده‌سازی روش‌هایی برای کاهش سوگیری در مدل‌های هوش مصنوعی و اطمینان از اینکه آن‌ها اطلاعات منصفانه و متعادلی ارائه می‌دهند.
  • افزایش شفافیت: شفاف‌تر و قابل توضیح‌تر کردن مدل‌های هوش مصنوعی، به کاربران اجازه می‌دهد تا نحوه رسیدن آن‌ها به نتیجه‌گیری‌هایشان را درک کنند.
  • احترام به حق چاپ: اطمینان از اینکه ابزارهای هوش مصنوعی به حقوق مالکیت معنوی احترام می‌گذارند و بدون اجازه به مطالب دارای حق چاپ دسترسی پیدا نمی‌کنند یا از آن‌ها استفاده نمی‌کنند.

2. آموزش جامع:

افراد، به ویژه جوانان، باید در مورد قابلیت‌ها و محدودیت‌های ابزارهای هوش مصنوعی آموزش ببینند. این شامل:

  • ترویج سواد رسانه‌ای: آموزش مهارت‌های تفکر انتقادی و توانایی ارزیابی اطلاعات از منابع مختلف.
  • تاکید بر مهارت‌های تحقیق: تقویت اهمیت روش‌های تحقیق سنتی و توانایی تایید مستقل اطلاعات.
  • درک محدودیت‌های هوش مصنوعی: آموزش کاربران در مورد پتانسیل هوش مصنوعی برای تولید اطلاعات نادرست یا مغرضانه.
  • تشویق به استفاده مسئولانه: ترویج استفاده مسئولانه و اخلاقی از ابزارهای هوش مصنوعی.

با ترکیب توسعه مسئولانه هوش مصنوعی با آموزش جامع، می‌توانیم از پتانسیل هوش مصنوعی استفاده کنیم و در عین حال خطرات آن را کاهش دهیم. هدف ایجاد آینده‌ای است که در آن هوش مصنوعی به عنوان ابزاری ارزشمند برای یادگیری و کشف عمل کند، نه منبعی برای اطلاعات نادرست و سردرگمی. یافته‌های این مطالعه یادآور مهمی از کاری است که در پیش است. سفر به سوی یک جامعه واقعاً آگاه و دارای سواد هوش مصنوعی نیازمند هوشیاری مداوم، ارزیابی انتقادی و تعهد به نوآوری مسئولانه است.