مطالعات اخیر یک روند نگرانکننده را آشکار کردهاند: مدلهای جدیدتر ChatGPT در مقایسه با مدلهای قبلی خود، نرخ بالاتری از توهمات را نشان میدهند. این کشف سوالات مهمی را در مورد بدهبستانهای بین قابلیتهای پیشرفته و قابلیت اطمینان در مدلهای زبانی بزرگ (LLMs) مطرح میکند. بیایید به جزئیات این یافتهها بپردازیم و پیامدهای بالقوه آن را بررسی کنیم.
درک این پدیده
آزمایشهای داخلی OpenAI، همانطور که در یک مقاله اخیر به تفصیل شرح داده شده است، افزایش قابل توجهی در نرخ توهمات در مدلهایی مانند o3 و o4-mini را نشان میدهد. این مدلها که با قابلیتهای استدلال پیشرفته و چندوجهی طراحی شدهاند، نشاندهنده پیشرفتهای لبه فناوری هوش مصنوعی هستند. آنها میتوانند تصاویر تولید کنند، جستجوهای وب را انجام دهند، وظایف را خودکار کنند، مکالمات گذشته را به خاطر بسپارند و مسائل پیچیده را حل کنند. با این حال، به نظر میرسد این پیشرفتها هزینهای دارند.
برای تعیین کمیت میزان این توهمات، OpenAI از یک آزمون خاص به نام PersonQA استفاده میکند. این آزمون شامل تغذیه مدل با مجموعهای از حقایق در مورد افراد مختلف و سپس طرح سوالاتی در مورد آن افراد است. دقت مدل بر اساس توانایی آن در ارائه پاسخهای صحیح ارزیابی میشود.
در ارزیابیهای قبلی، مدل o1 به نرخ دقت قابل توجه 47٪ با نرخ توهم تنها 16٪ دست یافت. با این حال، هنگامی که o3 و o4-mini در معرض همان ارزیابی قرار گرفتند، نتایج به طور محسوسی متفاوت بود.
از مدل o4-mini، به عنوان یک نوع کوچکتر با دانش جهانی کمتر، انتظار میرفت که نرخ توهم بالاتری را نشان دهد. با این حال، نرخ واقعی 48٪ به طور شگفتانگیزی بالا بود، با توجه به اینکه o4-mini یک محصول تجاری است که به طور گسترده برای جستجوهای وب و بازیابی اطلاعات استفاده میشود.
مدل o3 با اندازه کامل نیز تمایل نگرانکنندهای به توهم نشان داد. در 33٪ از پاسخهای خود، مدل اطلاعاتی را جعل کرد و به طور موثری نرخ توهم مدل o1 را دو برابر کرد. با وجود این، o3 همچنین به نرخ دقت بالایی دست یافت که OpenAI آن را به تمایل آن به ادعاهای بیشتر نسبت میدهد.
تعریف توهمات
اصطلاح ‘توهم’، در چارچوب هوش مصنوعی، به تمایل یک مدل به تولید پاسخهایی اشاره دارد که از نظر واقعی نادرست یا بیمعنی هستند و هیچ منبع یا توجیه ظاهری ندارند. اینها صرفاً اشتباهاتی نیستند که ناشی از دادههای بد یا سوءتفسیر باشند. در عوض، توهمات نشاندهنده یک نقص اساسیتر در فرآیند استدلال مدل هستند.
در حالی که اطلاعات نادرست مطمئناً میتواند از منابع مختلفی مانند ورودیهای ویکیپدیا یا موضوعات Reddit ناشی شود، این موارد بیشتر شبیه خطاهای قابل ردیابی هستند که میتوان آنها را به نقاط داده خاص نسبت داد. از سوی دیگر، توهمات با اختراع حقایق توسط مدل هوش مصنوعی در لحظات عدم اطمینان مشخص میشوند، پدیدهای که برخی از کارشناسان آن را ‘پر کردن خلاقانه’ نامیدهاند.
برای نشان دادن این نکته، این سوال را در نظر بگیرید، ‘هفت مدل آیفون 16 که در حال حاضر در دسترس هستند کدامند؟’ از آنجایی که فقط اپل میداند آیفون بعدی چه خواهد بود، LLM احتمالاً برخی پاسخهای واقعی ارائه میدهد - و سپس مدلهای اضافی را برای تکمیل کار میسازد. این یک مثال واضح از توهم است، جایی که مدل اطلاعات را برای تکمیل کار جعل میکند، یا آنچه که به عنوان ‘پر کردن خلاقانه’ شناخته میشود.
نقش دادههای آموزشی
چتباتهایی مانند ChatGPT بر روی مقادیر زیادی از دادههای اینترنتی آموزش داده میشوند. این دادهها محتوای پاسخهای آنها را اطلاع میدهند، اما همچنین نحوه پاسخ آنها را شکل میدهند. مدلها در معرض مثالهای بیشماری از پرسشها و پاسخهای ایدهآل مطابق قرار میگیرند، که لحنها، نگرشها و سطوح خاصی از ادب را تقویت میکند.
این فرآیند آموزشی میتواند ناخواسته به مشکل توهمات کمک کند. مدلها تشویق میشوند تا پاسخهای مطمئنی ارائه دهند که مستقیماً به سوال پاسخ دهند. این میتواند منجر به این شود که آنها پاسخ دادن به سوال را در اولویت قرار دهند، حتی اگر مجبور باشند برای انجام این کار اطلاعاتی را اختراع کنند، نه اینکه اعتراف کنند که پاسخ را نمیدانند.
در اصل، فرآیند آموزشی ممکن است ناخواسته پاسخهای مطمئن و ظاهراً آگاهانه را پاداش دهد، حتی اگر از نظر واقعی نادرست باشند. این میتواند یک سوگیری به سمت تولید پاسخها، صرف نظر از دقت آنها ایجاد کند، که میتواند مشکل توهمات را تشدید کند.
ماهیت اشتباهات هوش مصنوعی
وسوسهانگیز است که بین اشتباهات هوش مصنوعی و خطاهای انسانی موازیسازی کنیم. به هر حال، انسانها معصوم نیستند و نباید انتظار داشته باشیم که هوش مصنوعی نیز کامل باشد. با این حال، مهم است که تشخیص دهیم که اشتباهات هوش مصنوعی از فرآیندهای اساساً متفاوت از خطاهای انسانی ناشی میشوند.
مدلهای هوش مصنوعی در همان روشی که انسانها انجام میدهند، دروغ نمیگویند، سوءتفاهم ایجاد نمیکنند یا اطلاعات را به اشتباه به یاد نمیآورند. آنها فاقد تواناییهای شناختی و آگاهی متنی هستند که زیربنای استدلال انسانی است. در عوض، آنها بر اساس احتمالات عمل میکنند و کلمه بعدی را در یک جمله بر اساس الگوهای مشاهده شده در دادههای آموزشی خود پیشبینی میکنند.
این رویکرد احتمالی به این معنی است که مدلهای هوش مصنوعی درک درستی از دقت یا عدم دقت ندارند. آنها به سادگی محتملترین توالی کلمات را بر اساس روابط آماری که از دادههای آموزشی خود آموختهاند، تولید میکنند. این میتواند منجر به تولید پاسخهای به ظاهر منسجم شود که در واقع از نظر واقعی نادرست هستند.
در حالی که مدلها با ارزش کل اینترنت اطلاعات تغذیه میشوند، به آنها گفته نمیشود که کدام اطلاعات خوب یا بد، دقیق یا نادرست است - به آنها چیزی گفته نمیشود. آنها دانش بنیادی موجود یا مجموعهای از اصول اساسی ندارند که به آنها کمک کند اطلاعات را برای خود مرتب کنند. همه اینها فقط یک بازی اعداد است - الگوهای کلماتی که بیشتر در یک زمینه معین وجود دارند، به ‘حقیقت’ LLM تبدیل میشوند.
پرداختن به چالش
افزایش نرخ توهمات در مدلهای پیشرفته هوش مصنوعی یک چالش مهم را ایجاد میکند. OpenAI و سایر توسعهدهندگان هوش مصنوعی به طور فعال در تلاش برای درک و کاهش این مشکل هستند. با این حال، علل اساسی توهمات به طور کامل درک نشدهاند و یافتن راه حلهای موثر یک تلاش مداوم است.
یک رویکرد بالقوه بهبود کیفیت و تنوع دادههای آموزشی است. با قرار دادن مدلها در معرض اطلاعات دقیقتر و جامعتر، توسعهدهندگان میتوانند احتمال یادگیری و تداوم اطلاعات نادرست را کاهش دهند.
رویکرد دیگر توسعه تکنیکهای پیچیدهتر برای شناسایی و جلوگیری از توهمات است. این میتواند شامل آموزش مدلها برای تشخیص زمانی باشد که در مورد یک قطعه اطلاعات خاص نامطمئن هستند و از ارائه ادعا بدون شواهد کافی خودداری کنند.
در این میان، OpenAI ممکن است نیاز به دنبال کردن یک راه حل کوتاه مدت و همچنین ادامه تحقیقات خود در مورد علت اصلی داشته باشد. به هر حال، این مدلها محصولات درآمدزا هستند و باید در حالت قابل استفاده باشند. یک ایده این است که نوعی محصول تجمیع شده ایجاد شود - یک رابط چت که به چندین مدل مختلف OpenAI دسترسی دارد.
وقتی یک پرسش نیاز به استدلال پیشرفته دارد، از GPT-4o استفاده میکند و وقتی میخواهد احتمال توهمات را به حداقل برساند، از یک مدل قدیمیتر مانند o1 استفاده میکند. شاید این شرکت بتواند حتی فانتزیتر عمل کند و از مدلهای مختلف برای مراقبت از عناصر مختلف یک پرسش واحد استفاده کند و سپس از یک مدل اضافی برای چسباندن همه آنها در پایان استفاده کند. از آنجایی که این اساساً کار تیمی بین چندین مدل هوش مصنوعی خواهد بود، شاید نوعی سیستم بررسی واقعیت نیز قابل اجرا باشد.
افزایش نرخ دقت هدف اصلی نیست. هدف اصلی کاهش نرخ توهمات است، به این معنی که ما باید برای پاسخهایی که میگویند ‘نمیدانم’ و همچنین پاسخهایی با پاسخهای صحیح ارزش قائل شویم.
اهمیت بررسی واقعیت
رواج روزافزون توهمات در مدلهای هوش مصنوعی بر اهمیت بررسی واقعیت تأکید میکند. در حالی که این مدلها میتوانند ابزارهای ارزشمندی برای بازیابی اطلاعات و خودکارسازی وظایف باشند، نباید به عنوان منابع غیرقابل اشتباه حقیقت در نظر گرفته شوند.
کاربران همیشه باید هنگام تفسیر خروجی مدلهای هوش مصنوعی احتیاط کنند و باید هر اطلاعاتی را که دریافت میکنند به طور مستقل تأیید کنند. این امر به ویژه هنگام برخورد با مسائل حساس یا پیامدهای مهم بسیار مهم است.
با اتخاذ یک رویکرد انتقادی و شکاکانه به محتوای تولید شده توسط هوش مصنوعی، میتوانیم خطرات مرتبط با توهمات را کاهش دهیم و اطمینان حاصل کنیم که تصمیمات آگاهانه بر اساس اطلاعات دقیق میگیریم. اگر به LLMها علاقه زیادی دارید، نیازی نیست استفاده از آنها را متوقف کنید - اما اجازه ندهید میل به صرفهجویی در زمان بر نیاز به بررسی واقعیت نتایج غلبه کند. همیشه واقعیت را بررسی کنید!
پیامدها برای آینده هوش مصنوعی
چالش توهمات پیامدهای قابل توجهی برای آینده هوش مصنوعی دارد. از آنجایی که مدلهای هوش مصنوعی بیشتر در زندگی ما ادغام میشوند، ضروری است که آنها قابل اعتماد و معتبر باشند. اگر مدلهای هوش مصنوعی مستعد تولید اطلاعات نادرست یا گمراهکننده باشند، میتواند اعتماد عمومی را از بین ببرد و مانع از پذیرش گسترده آنها شود.
پرداختن به مشکل توهمات نه تنها برای بهبود دقت مدلهای هوش مصنوعی، بلکه برای اطمینان از استفاده اخلاقی و مسئولانه از آنها بسیار مهم است. با توسعه سیستمهای هوش مصنوعی که کمتر مستعد توهم هستند، میتوانیم از پتانسیل آنها برای خیر استفاده کنیم و در عین حال خطرات اطلاعات نادرست و فریب را کاهش دهیم.