گزارشی منتشر شده است که ادعا میکند، گروه بازدهی دولتی (DOGE) متعلق به ایلان ماسک، ممکن است مبادرت به استفاده از یک نسخه سفارشیسازی شده از ربات گفتگوگر Grok برای بررسی دقیق دادههای دولت ایالات متحده بدون کسب مجوزهای لازم نموده باشد. این استفاده گزارششده از این ربات گفتگوگر، که حاصل نوآوری استارتآپ هوش مصنوعی متعلق به خود ماسک، یعنی xAI است، بنا به گزارشها، موجب بروز نگرانیهایی در رابطه با احتمال وقوع تضاد منافع و ضرورت حفاظت از اطلاعات حساس شده است. منابع مطلع از این وضعیت، تصریح میکنند که تیم DOGE به شکلی پیوسته در حال گسترش دامنه بهرهگیری از Grok در درون ساختارهای دولتی است.
ادعاهایی پیرامون تضاد منافع و مخاطرات امنیتی دادهها
به ادعای منابع یاد شده، این بهکارگیری ادعایی، بالقوه میتواند منجر به نقض قوانین ممنوعیت تضاد منافع شود و اطلاعات حساس میلیونها شهروند آمریکایی را به مخاطره اندازد. یکی از منابعی که از نزدیک با پویاییهای عملیاتی DOGE آشنایی دارد، فاش کرد که تیم ماسک با بهرهگیری از یک ربات گفتگوگر Grok سفارشیسازی شده، در تلاش است تا بازدهی فرایند پردازش دادهها در DOGE را ارتقا بخشد. این امر مستلزم طرح پرسشها، تولید گزارشها و اجرای تحلیلهای دادهای است.
افزون بر این، شواهدی حاکی از آن است که DOGE در حال تشویق مقامات وزارت امنیت داخلی (Department of Homeland Security) به پذیرش این ابزار است، این در حالی است که ابزار مزبور هنوز از سوی وزارتخانه بهطور رسمی مورد تایید قرار نگرفته است. علیرغم اینکه هنوز مجموعههای دادهای که به این سامانه هوش مصنوعی مولد وارد شدهاند، به طور دقیق تعیین نشده است، این واقعیت که Grok برآمده از xAI، شرکت فناوری متعلق به ماسک است، که در سال ۲۰۲۳ در پلتفرم رسانه اجتماعی X به مالکیت وی تاسیس شده است، شایسته تامل است.
نقض بالقوه مقررات امنیت و حریم خصوصی
کارشناسان حوزه فناوری و اخلاق دولتی هشدار میدهند که در صورت وارد کردن اطلاعات حساس یا محرمانه دولتی، این ترتیبات میتواند منجر به نقض مقررات امنیت و حریم خصوصی شود. متخصصان مزبور، نگرانی خود را از این بابت ابراز کردهاند که این امر ممکن است امکان دسترسی مدیرعامل تسلا (Tesla) و اسپیساکس (SpaceX) را به دادههای انحصاری مربوط به پیمانکاریهای فدرال که از سوی سازمانهایی واریز میشوند که او در فعالیتهای تجاری خصوصی با آنها درگیر است، فراهم آورد. آنها معتقدند که میتوان از این دادهها به عنوان مواد آموزشی برای Grok استفاده کرد، اقدامی که در آن مدلهای هوش مصنوعی مقادیر قابل توجهی از مجموعههای داده را دریافت میکنند.
یکی دیگر از نگرانیها، احتمال تامین یک مزیت رقابتی ناعادلانه برای ماسک نسبت به سایر ارائهدهندگان هوش مصنوعی از طریق بهکارگیری Grok در درون دولت فدرال است. با وجود این ادعاهای جدی، سخنگوی وزارت امنیت داخلی، ادعاهای مبنی بر اجبار کارکنان DHS به استفاده از Grok را تکذیب کرده و بر تعهد DOGE به شناسایی و مبارزه با اسراف، تقلب و سوء استفاده تاکید کرده است.
نگاهی عمیقتر به پیامدها و عواقب احتمالی
روایت در حال آشکار شدن پیرامون استفاده غیرمجاز ادعایی از یک ربات گفتگوگر Grok سفارشیسازی شده از سوی تیم DOGE متعلق به ایلان ماسک در درون دولت ایالات متحده، پرسشهای عمیقی را پیرامون حریم خصوصی دادهها، تضاد منافع و بهکارگیری اخلاقی هوش مصنوعی در خدمت عمومی مطرح میکند. این ادعاها، در صورت اثبات، نه تنها میتواند پیامدهای قانونی و نظارتی قابل توجهی به همراه داشته باشد، بلکه اعتماد عمومی به توانایی دولت در حفاظت از اطلاعات حساس را نیز خدشهدار میکند.
هسته اصلی ادعاها: دسترسی و استفاده تایید نشده
در کانون این ماجرا، ادعایی قرار دارد مبنی بر اینکه DOGE، یک دپارتمان که ظاهراً بر ارتقای بازدهی دولتی متمرکز است، مبادرت به استفاده از یک نسخه سفارشیسازی شده از Grok، یک ربات گفتگوگر هوش مصنوعی توسعهیافته توسط شرکت xAI متعلق به ماسک، برای تحلیل دادههای دولت ایالات متحده نموده است. به گفته منابع داخلی، این اقدام، مجوزهای لازم را دریافت نکرده است، از این رو، پروتکلهای تثبیتشده را نقض کرده و نگرانیهایی را در رابطه با شفافیت و پاسخگویی برانگیخته است.
سفارشیسازی: یک شمشیر دولبه
نکته اصلی این مسئله، صرفاً استفاده از Grok نیست، بلکه این واقعیت است که گفته میشود این ربات گفتگوگر، یک نسخه سفارشیسازی شده است. سفارشیسازی به این معناست که ربات گفتگوگر به طور خاص برای انجام وظایف مشخص یا دسترسی به مجموعههای دادهای خاص، تنظیم شده است. اگر این سفارشیسازی بدون نظارت مناسب یا اقدامات امنیتی لازم انجام شده باشد، میتواند سامانه را در معرض آسیبپذیریهایی نظیر رخنه دادهها و دسترسی غیرمجاز قرار دهد.
تضاد منافع: نقش دوگانه ماسک
تضاد منافع بالقوه، ناشی از نقشهای چندوجهی ایلان ماسک به عنوان مدیرعامل تسلا و اسپیساکس، که هر دو کسبوکار قابل توجهی با دولت ایالات متحده دارند، در کنار مالکیت او بر xAI، شرکتی که Grok را توسعه داده است، نشات میگیرد. اگر DOGE از یک نسخه سفارشیسازی شده از Grok برای تحلیل دادههای دولتی استفاده میکند، این مسئله این شبح را برمیانگیزد که ماسک ممکن است به اطلاعات ممتازی دسترسی پیدا کند که میتواند به سایر سرمایهگذاریهای او سود برساند. این میتواند شامل بینشهایی درباره قراردادهای دولتی، فرایندهای تدارکاتی یا سیاستهای نظارتی باشد و از این طریق، یک مزیت رقابتی ناعادلانه را برای او فراهم آورد.
حساسیت دادهها: یک تهدید قریبالوقوع
مدیریت دادههای حساس دولتی از اهمیتی بسزا برخوردار است. هرگونه دسترسی، استفاده یا افشای غیرمجاز چنین دادههایی میتواند پیامدهای شدیدی را برای افراد، کسبوکارها و امنیت ملی به همراه داشته باشد. این ادعا که DOGE از Grok برای تحلیل دادههای دولتی بدون کسب تاییدیه مناسب استفاده میکند، حاکی از بیتوجهی احتمالی به پروتکلهای تثبیتشده حفاظت از دادهها است.
دادههای حساس دولتی ممکن است شامل طیف گستردهای از اطلاعات از قبیل دادههای شخصی، سوابق مالی، اطلاعات بهداشتی و اطلاعات طبقهبندیشده باشد. تحلیل غیرمجاز چنین دادههایی میتواند افراد را در معرض سرقت هویت، کلاهبرداری مالی یا تبعیض قرار دهد. علاوه بر این، این مسئله میتواند امنیت ملی را از طریق افشای آسیبپذیریها در زیرساختهای حیاتی یا سامانههای دفاعی به خطر اندازد.
پیامدهای گستردهتر برای حکمرانی هوش مصنوعی
جنجال پیرامون استفاده ادعایی Grok توسط DOGE، پرسشهای گستردهتری را نیز در رابطه با حکمرانی هوش مصنوعی در دولت مطرح میکند. با توجه به اینکه فناوریهای هوش مصنوعی به شکلی روزافزون پیچیدهتر و فراگیرتر میشوند، ایجاد دستورالعملها و مقررات واضح برای حصول اطمینان از استفاده اخلاقی، مسئولانه و مطابق با قانون از آنها، امری ضروری است.
شفافیت و پاسخگویی
شفافیت برای ایجاد اعتماد عمومی به استفاده از هوش مصنوعی در دولت، امری ضروری است. سازمانهای دولتی باید در رابطه با سامانههای هوش مصنوعی که استفاده میکنند، دادههایی که جمعآوری میکنند و تصمیماتی که اتخاذ میکنند، شفافیت داشته باشند. آنها همچنین باید در قبال حصول اطمینان از اینکه سامانههای هوش مصنوعی به شیوهای عادلانه، بیطرفانه و غیرتبعیضآمیز مورد استفاده قرار میگیرند، پاسخگو باشند.
مدیریت ریسک
سازمانهای دولتی باید پیش از بهکارگیری سامانههای هوش مصنوعی، مبادرت به انجام ارزیابیهای دقیق مخاطرات نمایند. این ارزیابیها باید مخاطرات بالقوه برای حریم خصوصی، امنیت و آزادیهای مدنی را شناسایی کنند. آنها همچنین باید راهبردهایی را برای کاهش این مخاطرات تدوین کنند.
نظارت و حسابرسی
سازمانهای دولتی باید سازوکارهایی را برای نظارت بر سامانههای هوش مصنوعی و حسابرسی آنها ایجاد کنند. این سازوکارها باید تضمین کنند که سامانههای هوش مصنوعی مطابق با آنچه در نظر بوده، مورد استفاده قرار میگیرند و آسیبی ناخواسته ایجاد نمیکنند.
آموزش و پرورش
کارمندان دولتی که از سامانههای هوش مصنوعی استفاده میکنند، باید آموزش و پرورش کافی دریافت کنند. این آموزش باید شامل پیامدهای اخلاقی، قانونی و اجتماعی هوش مصنوعی باشد. این آموزش همچنین باید به کارمندان بیاموزد که چگونه از سامانههای هوش مصنوعی به شیوهای مسئولانه و موثر استفاده کنند.
پاسخ وزارت امنیت داخلی
سخنگوی وزارت امنیت داخلی، این ادعاها را قویاً تکذیب کرده است. در حالی که این وزارتخانه اذعان کرده است که DOGE وجود دارد و وظیفه آن شناسایی اسراف، تقلب و سوء استفاده است، تاکید کرده است که DOGE هیچ کارمندی را برای استفاده از هیچ ابزار یا محصول خاصی تحت فشار قرار نداده است.
ضرورت انجام یک تحقیق مستقل
با توجه به سنگینی این اتهامات، ضروری است که یک تحقیق مستقل برای تعیین واقعیتها انجام شود. این تحقیق باید کاربرد Grok را توسط DOGE، دادههایی که تحلیل شدهاند و تدابیر حفاظتی که برای حفاظت از اطلاعات حساس به کار گرفته شدهاند، بررسی کند. این تحقیق همچنین باید ارزیابی کند که آیا هیچ تضاد منافع یا نقض قانون یا سیاستی رخ داده است یا خیر.
این تحقیق باید توسط یک نهاد مستقل با تخصص و منابع لازم برای انجام یک تحقیق کامل و بیطرفانه انجام شود. یافتههای این تحقیق باید منتشر شود و اقدام مناسب برای رسیدگی به هرگونه تخلف انجام شود.
اهمیت رسیدگی به این اتهامات
اتهامات پیرامون استفاده از یک ربات گفتگوگر Grok سفارشیسازی شده توسط تیم DOGE متعلق به ایلان ماسک، جدی است و مستلزم بررسی دقیق است. در صورت اثبات، این اتهامات میتواند پیامدهای قابل توجهی برای حریم خصوصی دادهها، تضاد منافع و بهکارگیری اخلاقی هوش مصنوعی در دولت داشته باشد.
حفاظت از حریم خصوصی دادهها
حفاظت از حریم خصوصی دادهها برای حفظ اعتماد عمومی به دولت ضروری است. سازمانهای دولتی باید اطمینان حاصل کنند که دادهها را مطابق با قانون و با بالاترین استانداردهای اخلاقی جمعآوری، استفاده و ذخیره میکنند. آنها همچنین باید در رابطه با رویههای خود در زمینه دادهها شفافیت داشته باشند و به افراد این فرصت را بدهند که به دادههای خود دسترسی داشته باشند و آنها را اصلاح کنند.
سازمانهای دولتی باید اقدامات امنیتی قوی را برای حفاظت از دادهها در برابر دسترسی، استفاده یا افشای غیرمجاز اجرا کنند. این اقدامات باید شامل امنیت فیزیکی، امنیت منطقی و امنیت اداری باشد.
اجتناب از تضاد منافع
اجتناب از تضاد منافع برای حفظ تمامیت دولت ضروری است. مقامات دولتی باید از هر موقعیتی که منافع شخصی آنها میتواند با وظایف عمومی آنها در تضاد باشد، اجتناب کنند. آنها همچنین باید در هر تصمیمی که در آن منافع شخصی دارند، از شرکت خودداری کنند.
سازمانهای دولتی باید سیاستها و رویههایی را برای شناسایی و مدیریت تضاد منافع داشته باشند. این سیاستها و رویهها باید روشن، جامع و به طور موثر اجرا شوند.
تضمین بهکارگیری اخلاقی هوش مصنوعی
تضمین بهکارگیری اخلاقی هوش مصنوعی برای بهرهگیری از مزایای آن در عین کاهش خطرات آن ضروری است. سازمانهای دولتی باید دستورالعملهای اخلاقی را برای استفاده از هوش مصنوعی تدوین کنند. این دستورالعملها باید بر اساس اصول انصاف، پاسخگویی، شفافیت و احترام به حقوق بشر باشند.
سازمانهای دولتی همچنین باید در تحقیق و توسعه برای پیشبرد استفاده اخلاقی از هوش مصنوعی سرمایهگذاری کنند. این تحقیق باید بر روی مسائلی از قبیل سوگیری، تبعیض و حریم خصوصی تمرکز کند.
گام بعدی چیست؟
جنجال پیرامون使用了 Grok توسط DOGE، ضرورت وجود یک چارچوب جامع برای حکمرانی هوش مصنوعی در دولت را برجسته میکند. این چارچوب باید به مسائلی از قبیل حریم خصوصی دادهها، تضاد منافع، بهکارگیری اخلاقی، شفافیت، پاسخگویی، مدیریت ریسک، نظارت، حسابرسی، آموزش و پرورش رسیدگی کند. این چارچوب باید به عنوان مبنایی برای حصول اطمینان از اینکه هوش مصنوعی به شیوهای سازگار با ارزشها و اصول یک جامعه دموکراتیک مورد استفاده قرار میگیرد، عمل کند.