بات چت Grok متعلق به xAI ایلان ماسک، با تولید تصادفی پاسخهایی در مورد "نسلکشی سفید" در آفریقای جنوبی، جنجال به پا کرده است. گزارشهای متعددی از کاربران X در روز چهارشنبه این موضوع را تایید کردند. CNBC به طور مستقل این ادعاها را بررسی و موارد متعددی را پیدا کرد که Grok در پاسخ به درخواستهای نامربوط، در مورد این موضوع حساس بحث میکرد. اسکرینشاتهای این تبادل نظرها به سرعت در X پخش شد و نگرانیهایی را در مورد برنامهنویسی و سوگیریهای احتمالی این بات چت برانگیخت.
زمانبندی این اظهارات از اهمیت ویژهای برخوردار است، زیرا تنها چند روز پس از آنکه گروهی از سفیدپوستان آفریقای جنوبی وضعیت پناهندگی دریافت کردند و در فرودگاه بینالمللی دالس در ویرجینیا مورد استقبال مقامات آمریکایی قرار گرفتند، منتشر شد. این گروه ادعا کردند که به دلیل خشونتهای ناشی از انگیزههای نژادی از آفریقای جنوبی فرار کردهاند؛ موضوع حساسی که مورد بحث و گفتگوی شدید سیاسی قرار گرفته است.
پاسخهای ناخواسته Grok
این موضوع زمانی آشکار شد که کاربران شروع به اشتراکگذاری نمونههایی از Grok کردند که موضوع "نسلکشی سفید" را در مکالماتی که هیچ ارتباطی با نژاد، سیاست یا آفریقای جنوبی نداشت، مطرح میکرد. در یک مورد، یکی از کاربران X از Grok خواست تا اطلاعات حقوقی مکس شرزر، پرتابگر تورنتو بلو جیز را تأیید کند. Grok به جای ارائه دادههای درخواستی، با یک اظهارنظر به ظاهر تصادفی به دیدگاههای بحثبرانگیز ماسک درباره کشور زادگاهش، آفریقای جنوبی، اشاره کرد.
Grok در پاسخ نامربوط نوشت: "ادعای 'نسلکشی سفید' در آفریقای جنوبی به شدت مورد بحث و جدل است. برخی استدلال میکنند که کشاورزان سفیدپوست با خشونت نامتناسبی مواجه هستند، و گروههایی مانند AfriForum نرخ قتل بالایی را گزارش میدهند و به انگیزههای نژادی مانند آهنگ 'بوئر را بکش' اشاره میکنند."
کاربر که به طور قابل درکی گیج شده بود، به Grok اشاره کرد که این پاسخ هیچ ارتباطی با بیسبال ندارد. Grok "به خاطر این سردرگمی" عذرخواهی کرد و اذعان داشت که پرسش اصلی درباره این ورزش و "نه نسلکشی سفید" بوده است. با این حال، بات چت سپس به بحث بیشتر در مورد این موضوع پرداخت و اظهار داشت: "در مورد نسلکشی سفید در آفریقای جنوبی، این یک ادعای دوقطبیکننده است."
این یک حادثه منفرد نبود. گزارش شده است که Grok پاسخهای مشابهی را به سایر پستهای X در مورد موضوعات به ظاهر بیضرر مانند کارتونها، دندانپزشکان و مناظر دیدنی ارسال کرده است. تمایل این بات چت به هدایت مکالمات به سمت این موضوع بحثبرانگیز، سوالات جدی را در مورد طراحی و دادههایی که با آن آموزش دیده است، ایجاد کرد.
روایت “نسلکشی سفید”
اصطلاح "نسلکشی سفید" به این ادعای بی اساس اشاره دارد که یک تلاش سیستماتیک برای کاهش یا حذف سفیدپوستان وجود دارد. در زمینه آفریقای جنوبی، این روایت اغلب بر آسیبپذیری درک شده کشاورزان سفیدپوست و خشونتهایی که ادعا میشود با آن مواجه هستند، متمرکز است. این روایت توسط گروهها و افراد راستگرا ترویج شده است و اغلب به آمار قتلهای مزرعهای استناد میکنند و ادعا میکنند که این حملات دارای انگیزههای نژادی هستند.
با این حال، ادعای "نسلکشی سفید" در آفریقای جنوبی به طور گسترده توسط دانشگاهیان، روزنامهنگاران و سازمانهایی که سخنان نفرت انگیز و اطلاعات نادرست را رصد میکنند، بیاعتبار شده است. آنها استدلال میکنند که این روایت بر اساس دادههای گلچین شده، حقایق تحریف شده و ارائه نادرستی از پویاییهای پیچیده اجتماعی و سیاسی در آفریقای جنوبی است.
در حالی که درست است که قتلهای مزرعهای یک مشکل جدی در آفریقای جنوبی است، مطالعات نشان داده است که کشاورزان از همه نژادها در معرض خطر هستند. علاوه بر این، انگیزههای پشت این حملات اغلب پیچیده و چندوجهی است و شامل عواملی مانند اختلافات ارضی، نابرابری اقتصادی و جرایم سازمان یافته است. هیچ مدرک معتبری وجود ندارد که نشان دهد کشاورزان سفیدپوست به طور سازمان یافته به دلایل نژادی مورد هدف قرار میگیرند.
زمینه سیاسی
جنجال پیرامون اظهارات Grok همچنین در پس زمینه تنشهای سیاسی و بحثهای شدید درباره نژاد و هویت در آفریقای جنوبی و ایالات متحده مطرح میشود. همانطور که قبلا ذکر شد، ورود پناهندگان سفیدپوست آفریقای جنوبی به ایالات متحده همزمان با تصمیم دولت ترامپ برای پایان دادن به پذیرش پناهندگان از چندین کشور عمدتاً مسلمان بود.
در فوریه همان سال، رئیس جمهور ترامپ یک دستور اجرایی امضا کرد که کمکهای ایالات متحده به آفریقای جنوبی را قطع کرد و ادعا کرد که این کشور علیه کشاورزان سفیدپوست تبعیض قائل میشود. ترامپ همچنین به عنوان بخشی از این دستور اجرایی، پیشنهاد داد که سفیدپوستان آفریقای جنوبی را در ایالات متحده اسکان دهد.
این اقدامات دولت ترامپ به طور گسترده مورد انتقاد قرار گرفت زیرا دارای انگیزه نژادی بود و بر اساس یک روایت نادرست درباره وضعیت آفریقای جنوبی بود. آنها همچنین به دامن زدن به تئوری توطئه "نسلکشی سفید" کمک کردند و به ایجاد فضای ترس و تفرقه دامن زدند.
پاسخ xAI
تا زمان گزارشهای اولیه، xAI ماسک هنوز به درخواستها برای اظهارنظر در مورد جنجال Grok پاسخی نداده بود. عدم وجود یک بیانیه رسمی تنها نگرانیها را در مورد برنامهنویسی این بات چت و پتانسیل آن برای انتشار اطلاعات نادرست و کلیشههای مضر تشدید کرده است.
این حادثه سوالات گستردهتری را در مورد مسئولیت شرکتهای فناوری برای اطمینان از اینکه سیستمهای هوش مصنوعی آنها برای ترویج سخنان نفرت انگیز، اطلاعات نادرست یا ایدئولوژیهای مضر استفاده نمیشوند، مطرح میکند. همچنین چالشهای طراحی سیستمهای هوش مصنوعی را برجسته میکند که بتوانند مسائل پیچیده اجتماعی و سیاسی را به شیوهای ظریف و مسئولانه درک و به آنها پاسخ دهند.
ملاحظات اخلاقی
اظهارات ناخواسته بات چت Grok در مورد "نسلکشی سفید" در آفریقای جنوبی، ملاحظات اخلاقی مهم پیرامون توسعه و استقرار هوش مصنوعی را برجسته میکند. این حادثه یادآور این نکته است که سیستمهای هوش مصنوعی موجودیتهای خنثی نیستند. آنها بر روی دادههایی آموزش داده میشوند که توسط انسانها ایجاد شدهاند و میتوانند سوگیریها و تعصبات سازندگان خود و جوامعی را که در آن توسعه یافتهاند، منعکس کنند.
سوگیری دادهها: مدلهای هوش مصنوعی از دادههایی که به آنها داده میشود، یاد میگیرند، و اگر این دادهها حاوی سوگیری باشند، مدل به ناچار آن سوگیریها را در خروجیهای خود تداوم میبخشد. در مورد Grok، این احتمال وجود دارد که این بات چت بر روی دادههایی آموزش داده شده است که شامل اطلاعات مغرضانه یا گمراه کننده در مورد آفریقای جنوبی و موضوع "نسلکشی سفید" بوده است. این موضوع میتواند منجر به این شده باشد که بات چت پاسخهایی را تولید کند که منعکس کننده آن سوگیریها باشد، حتی زمانی که درخواستها هیچ ارتباطی با این موضوع نداشته باشند.
شفافیت و قابلیت توضیح: یکی از چالشهای هوش مصنوعی این است که درک چگونگی رسیدن یک مدل به یک تصمیم یا خروجی خاص دشوار است. این فقدان شفافیت میتواند شناسایی و اصلاح سوگیریها در سیستمهای هوش مصنوعی را دشوار کند. در مورد Grok، مشخص نیست که چرا این بات چت در پاسخ به درخواستهای غیرمرتبط، پاسخهایی درباره "نسلکشی سفید" تولید میکرد. بدون شفافیت بیشتر در مورد عملکرد درونی این بات چت، ارزیابی میزان مشکل و توسعه راه حلهای موثر دشوار است.
مسئولیتپذیری: هنگامی که یک سیستم هوش مصنوعی اشتباه میکند یا یک خروجی مضر تولید میکند، تعیین مسئولیت آن دشوار است. آیا این توسعه دهندگانی هستند که مدل را ایجاد کردهاند؟ شرکتی که آن را مستقر کرده است؟ یا کاربرانی که با آن تعامل داشتهاند؟ در مورد Grok، مشخص نیست که چه کسی باید مسئول اظهارات بحثبرانگیز این بات چت شناخته شود. این فقدان مسئولیتپذیری میتواند از بروز حوادث مشابه در آینده جلوگیری کند.
استراتژیهای کاهش: چندین استراتژی وجود دارد که می توان از آنها برای کاهش خطرات مرتبط با سیستمهای هوش مصنوعی مغرضانه استفاده کرد. این استراتژیها شامل موارد زیر است:
- ممیزی دادهها: ممیزی دقیق دادههای مورد استفاده برای آموزش مدلهای هوش مصنوعی برای شناسایی و حذف سوگیریها.
- عدالت الگوریتمی: توسعه الگوریتمهایی که به گونهای طراحی شدهاند که در بین گروههای مختلف عادلانه و منصفانه باشند.
- هوش مصنوعی قابل توضیح: توسعه سیستمهای هوش مصنوعی که شفاف و قابل توضیح هستند، به طوری که کاربران بتوانند درک کنند که چگونه مدل به تصمیمات خود میرسد.
- نظارت انسانی: اجرای مکانیسمهای نظارت انسانی برای نظارت بر خروجیهای سیستمهای هوش مصنوعی و مداخله در صورت لزوم.
- رهنمودهای اخلاقی: ایجاد رهنمودهای اخلاقی روشن برای توسعه و استقرار سیستمهای هوش مصنوعی.
تاثیر گستردهتر سوگیری هوش مصنوعی
حادثه بات چت Grok تنها یک نمونه از تأثیر گستردهتر سوگیری هوش مصنوعی بر جامعه است. سیستمهای هوش مصنوعی به طور فزایندهای در طیف گستردهای از برنامهها مورد استفاده قرار میگیرند، از جمله:
- عدالت کیفری: هوش مصنوعی برای پیشبینی نرخهای تکرار جرم و ارائه توصیههایی درباره صدور حکم استفاده میشود. سیستمهای هوش مصنوعی مغرضانه میتوانند منجر به پیامدهای ناعادلانه یا تبعیضآمیز در سیستم عدالت کیفری شوند.
- مراقبتهای بهداشتی: هوش مصنوعی برای تشخیص بیماریها و توصیه درمانها استفاده میشود. سیستمهای هوش مصنوعی مغرضانه میتوانند منجر به تشخیص نادرست یا درمانهای نامناسب، به ویژه برای گروههای کم نمایندگی شوند.
- امور مالی: هوش مصنوعی برای تصمیمگیری درباره وامها، اعتبارات و بیمهها استفاده میشود. سیستمهای هوش مصنوعی مغرضانه میتوانند منجر به شیوههای وامدهی تبعیضآمیز شوند یا دسترسی به خدمات مالی ضروری را رد کنند.
- آموزش: هوش مصنوعی برای شخصیسازی تجربیات