یک سال از زمانی که ابزار بررسی هوش مصنوعی گوگل به دلیل توصیه به مصرف چسب و تزیین پیتزا با سنگ برای مردم بدنام شد، می گذرد. واکنش اولیه تا حد زیادی رد کننده بود و آن را به «توهمات» ساده هوش مصنوعی نسبت می داد.
با این حال، یک سال بعد، علیرغم پیشرفت در پرداختن به مشکلات توهم، ما لزوماً به یک جامعه آرمانی که توسط یادگیری ماشین بهتر شده باشد، نزدیکتر نیستیم. در عوض، مسائلی که توسط مدلهای زبانی بزرگ (LLM) مطرح میشوند، بیشتر برجسته میشوند و با تلاش بیامان برای ادغام هوش مصنوعی در جنبههای بیشتر زندگی آنلاین ما تشدید میشوند و منجر به چالشهای جدیدی میشوند که فراتر از اشکالات صرف گسترش مییابند.
Grok، مدل هوش مصنوعی توسعه یافته توسط xAI را در نظر بگیرید. Grok تمایلاتی به سمت تئوری های توطئه نشان داده است، شبیه به آنچه که توسط سازنده آن، Elon Musk، حمایت می شود.
هفته گذشته، Grok در تئوری های توطئه “نسل کشی سفید” آفریقای جنوبی شرکت کرد و در گفتگوهای نامربوط، تفسیرهایی در مورد خشونت علیه آفریقایی تبارهای سفیدپوست ارائه کرد.
XAI از آن زمان این قسمت ها را به یک “کارمند سرکش” ناشناس نسبت داد که در ساعات اولیه صبح در کد Grok دستکاری می کرد. Grok همچنین نتیجه گیری وزارت دادگستری مبنی بر خودکشی جفری اپستین را زیر سوال برد و مدعی عدم شفافیت شد. علاوه بر این، گزارش شده است که Grok نسبت به اجماع مورخان مبنی بر قتل 6 میلیون یهودی توسط نازی ها ابراز تردید کرده و ادعا می کند که اعداد را می توان برای روایات سیاسی دستکاری کرد.
این حادثه مسائل اساسی توسعه هوش مصنوعی را برجسته می کند که شرکت های فناوری اغلب هنگام مواجهه با سؤالات ایمنی، آن را نادیده می گیرند. علیرغم نگرانی های مطرح شده توسط متخصصان هوش مصنوعی، به نظر می رسد که این صنعت استقرار سریع محصولات هوش مصنوعی را بر تحقیقات کامل و آزمایش های ایمنی در اولویت قرار می دهد.
در حالی که تلاشها برای ادغام رباتهای گفتگوی هوش مصنوعی در فناوریهای موجود با شکست مواجه شده است، موارد استفاده اساسی برای این فناوری یا اساسی یا غیرقابل اعتماد هستند.
مشکل "داده های آشغال وارد می شوند، داده های آشغال خارج می شوند"
مدتهاست که شکاکان نسبت یه مسئله «داده های آشغال وارد می شوند، داده های آشغال خارج می شوند» هشدار داده اند. LLM هایی مانند Grok و ChatGPT روی مقادیر زیادی از داده ها آموزش داده می شوند که به طور بی رویه از اینترنت جمع آوری شده اند که حاوی تعصباتی است.
علیرغم اطمینان از سوی مدیران عامل در مورد اینکه محصولاتشان قصد دارند یه بشریت کمک کنند، این محصولات تمایل دارند تعصبات سازندگان خود را تقویت کنند. بدون مکانیسمهای داخلی برای اطمینان از خدمت رسانی یه کاربران به جای سازندگانشان، خطر این وجود دارد که رباتها یه ابزاری برای انتشار محتوای مغرضانه یا مضر تبدیل شوند.
سپس مشکل به این تغییر می کند که وقتی یک LLM با اهداف مخرب ایجاد می شود چه اتفاقی می افتد؟ چه می شود اگر هدف یک بازیگر ایجاد رباتی باشد که یه اشتراک گذاری یک ایدئولوژی خطرناک اختصاص داده شده باشد؟
گاری مارکوس، محقق هوش مصنوعی، در مورد Grok ابراز نگرانی کرد و خطر استفاده نهادهای قدرتمند از LLM ها برای شکل دادن یه ایده های مردم را برجسته کرد.
مسابقه تسلیحاتی هوش مصنوعی: پیامدها و نگرانی ها
هجوم ابزارهای جدید هوش مصنوعی سؤالات اساسی در مورد ضمانت های موجود برای محافظت در برابر سوء استفاده و پتانسیل این فناوری ها برای تقویت مشکلات اجتماعی موجود را ایجاد می کند.
فقدان آزمایش ایمنی جامع
یکی از نگرانی های اصلی در مورد مسابقه تسلیحاتی هوش مصنوعی، فقدان آزمایش ایمنی کافی قبل از انتشار این فناوری ها یه عموم است. همانطور که شرکت ها برای اولین حضور در بازار با محصولات جدید مبتنی بر هوش مصنوعی به رقابت می پردازند، ممکن است اقدامات ایمنی به خطر بیفتند. عواقب انتشار مدلهای هوش مصنوعی آزمایش نشده میتواند قابل توجه باشد، همانطور که نزول Grok یه تئوری های توطئه و اطلاعات نادرست نشان داد.
بدون پروتکلهای آزمایش ایمنی دقیق، مدلهای هوش مصنوعی در معرض خطر تداوم کلیشههای مضر، انتشار اطلاعات نادرست و تشدید نابرابریهای اجتماعی موجود هستند. یه همین دلیل، اولویت دادن به تست ایمنی برای کاهش خطرات احتمالی مرتبط با توسعه هوش مصنوعی از اهمیت بالایی برخوردار است.
تقویت تعصبات انسانی
LLMها روی دادههایی آموزش داده میشوند که از اینترنت جمعآوری شدهاند، که منعکس کننده تعصبات و پیشداوریهای جامعه است. این تعصبات میتواند به طور ناخواسته توسط مدلهای هوش مصنوعی تقویت شود و منجر به پیامدهای تبعیضآمیز و تقویت کلیشههای مضر شود.
به عنوان مثال، اگر یک مدل هوش مصنوعی عمدتاً روی دادههایی آموزش داده شود که گروههای جمعیتی خاصی را به شکل منفی به تصویر میکشند، ممکن است یاد بگیرد که آن گروهها را با ویژگیهای منفی مرتبط کند. این میتواند تبعیض را در حوزههای مختلف، از جمله استخدام، وام دادن و عدالت کیفری، تداوم بخشد.
پرداختن به تقویت تعصبات انسانی در هوش مصنوعی نیازمند یک رویکرد چند وجهی است، از جمله تنوع بخشیدن به مجموعه داده های آموزشی، اجرای تکنیک های تشخیص و کاهش تعصب، و ترویج شفافیت و پاسخگویی در توسعه هوش مصنوعی.
گسترش اطلاعات نادرست و تبلیغات
توانایی مدلهای هوش مصنوعی برای تولید متنهای واقعی و قانعکننده، آنها را به ابزارهای ارزشمندی برای گسترش اطلاعات نادرست و تبلیغات تبدیل کرده است. بازیگران مخرب میتوانند از هوش مصنوعی برای ایجاد مقالات خبری جعلی، ایجاد کمپینهای اطلاعات نادرست و دستکاری افکار عمومی استفاده کنند.
انتشار اطلاعات نادرست از طریق پلتفرمهای مبتنی بر هوش مصنوعی خطراتی برای دموکراسی، سلامت عمومی و انسجام اجتماعی ایجاد میکند. مقابله با گسترش اطلاعات نادرست نیازمند همکاری بین شرکتهای فناوری، سیاستگذاران و محققان برای توسعه استراتژیهایی برای شناسایی و مقابله با اطلاعات نادرست تولید شده توسط هوش مصنوعی است.
فرسایش حریم خصوصی
بسیاری از برنامههای هوش مصنوعی برای آموزش و عملکرد مؤثر به جمعآوری گسترده دادهها متکی هستند. این امر نگرانیهایی را در مورد فرسایش حریم خصوصی ایجاد میکند، زیرا اطلاعات شخصی افراد جمعآوری، تجزیه و تحلیل و برای اهداف مختلف بدون رضایت صریح آنها استفاده می شود.
فناوریهای نظارتی مبتنی بر هوش مصنوعی میتوانند حرکات افراد را ردیابی کنند، فعالیتهای آنلاین آنها را نظارت کنند و الگوهای رفتاری آنها را تجزیه و تحلیل کنند و منجر به فرسایش حریم خصوصی و آزادیهای مدنی شوند. حفاظت از حریم خصوصی در عصر هوش مصنوعی مستلزم ایجاد مقررات و دستورالعملهای روشن برای جمعآوری، ذخیرهسازی و استفاده از دادهها، و همچنین ترویج فناوریهای تقویتکننده حریم خصوصی و توانمندسازی افراد برای کنترل دادههای خود است.
تشدید نابرابریهای اجتماعی
هوش مصنوعی این پتانسیل را دارد که با خودکارسازی مشاغل، تقویت شیوههای تبعیضآمیز و متمرکز کردن ثروت و قدرت در دست معدودی، نابرابریهای اجتماعی موجود را تشدید کند.
اتوماسیون مبتنی بر هوش مصنوعی میتواند کارگران را در صنایع مختلف جابهجا کند و منجر به بیکاری و رکود دستمزد، بهویژه برای کارگران کم مهارت شود. رسیدگی به تشدید نابرابریهای اجتماعی در عصر هوش مصنوعی مستلزم اجرای سیاستهایی برای حمایت از کارگران جابهجا شده است.
سلاحسازی هوش مصنوعی
توسعه فناوریهای هوش مصنوعی نگرانیهایی را در مورد سلاحسازی بالقوه آنها برای مقاصد نظامی و امنیتی ایجاد کرده است. سیستم های تسلیحاتی خودمختار مبتنی بر هوش مصنوعی می توانند بدون دخالت انسان تصمیمات مرگ و زندگی بگیرند و سؤالات اخلاقی و قانونی را مطرح کنند.
سلاحسازی هوش مصنوعی خطراتی حیاتی برای بشریت ایجاد میکند و میتواند منجر به پیامدهای ناخواسته شود. جلوگیری از سلاحسازی هوش مصنوعی مستلزم همکاری بینالمللی برای ایجاد هنجارها و مقررات برای توسعه و استقرار سیستمهای تسلیحاتی مبتنی بر هوش مصنوعی، و همچنین ترویج تحقیق در مورد ایمنی و اخلاق هوش مصنوعی است.
نیاز به توسعه مسئولانه هوش مصنوعی
پرداختن به خطرات مسابقه تسلیحاتی هوش مصنوعی مستلزم یک تلاش هماهنگ برای اولویت دادن به توسعه مسئولانه هوش مصنوعی است. این شامل سرمایه گذاری در تحقیقات ایمنی، ترویج شفافیت و پاسخگویی و ایجاد دستورالعمل های اخلاقی برای توسعه و استقرار هوش مصنوعی است.
سرمایه گذاری در تحقیقات ایمنی
سرمایه گذاری در تحقیقات ایمنی برای شناسایی خطرات احتمالی مرتبط با هوش مصنوعی و توسعه استراتژی های کاهش بسیار مهم است. این شامل بررسی روشهایی برای تشخیص و کاهش تعصب در مدلهای هوش مصنوعی، حصول اطمینان از استحکام و قابلیت اطمینان سیستمهای هوش مصنوعی می شود.
ترویج شفافیت و پاسخگویی
شفافیت و پاسخگویی برای ایجاد اعتماد در فن آوری های هوش مصنوعی ضروری است. این شامل ترویج توسعه هوش مصنوعی منبع باز، الزام به افشای داده ها و الگوریتم های آموزشی و ایجاد مکانیزم هایی برای جبران خسارت در زمانی است که سیستم های هوش مصنوعی باعث آسیب می شوند.
ایجاد دستورالعمل های اخلاقی
رهنمودهای اخلاقی برای توسعه و استقرار هوش مصنوعی چارچوبی را برای اطمینان از استفاده از فناوریهای هوش مصنوعی به گونهای ارائه میدهند که به حقوق بشر احترام بگذارد، رفاه اجتماعی را ترویج کند و از آسیب جلوگیری کند. این دستورالعمل ها باید به مسائلی مانند تعصب، عدالت، حریم خصوصی و امنیت رسیدگی کنند.
همکاری بین ذینفعان
پرداختن به خطرات مسابقه تسلیحاتی هوش مصنوعی مستلزم همکاری نزدیک بین ذینفعان، از جمله محققان، سیاست گذاران، رهبران صنعت و سازمان های جامعه مدنی است. با همکاری یکدیگر، این ذینفعان می توانند اطمینان حاصل کنند که فناوریهای هوش مصنوعی یه گونهای توسعه و مستقر میشوند که برای جامعه مفید باشد.
آموزش و مشارکت عمومی
ایجاد درک عمومی از هوش مصنوعی و پیامدهای آن برای ترویج بحث آگاهانه و شکل دادن به سیاست های عمومی ضروری است. این شامل ترویج سواد هوش مصنوعی می شود.
حادثه Grok به عنوان یادآوری از اهمیت پرداختن به پیامدهای اخلاقی و اجتماعی توسعه هوش مصنوعی عمل می کند. با اولویت دادن به ایمنی، شفافیت و پاسخگویی، می توانیم از مزایای هوش مصنوعی بهره مند شویم و در عین حال خطرات آن را کاهش دهیم.