ابتکارات کاهش کارکنان دولت با Llama 2 متا انجام شد، نه Grok ماسک
یک افشاگری غیرمنتظره نشان میدهد که ابتکارات به شدت مورد بررسی دپارتمان بهرهوری دولت برای سادهسازی نیروی کار فدرال، از یک مدل قدیمیتر هوش مصنوعی متا، به طور خاص Llama 2، به جای ساخته هوش مصنوعی ایلان ماسک یعنی Grok، استفاده کرده است.
یادداشت «دوراهی» و نقش Llama 2
بر اساس بررسی انجام شده توسط Wired، وابستگان DOGE (دپارتمان بهرهوری دولت) ایلان ماسک، که در دفتر مدیریت پرسنل فعالیت میکنند، از مدل Llama 2 متا برای تجزیه و تحلیل دقیق و دستهبندی پاسخهای کارمندان فدرال به ایمیل بحثبرانگیز «دوراهی» که در اواخر ژانویه در سراسر دولت ارسال شد، استفاده کردند.
یادداشت «دوراهی»، که به طرز چشمگیری شبیه به پیام قبلی بود که «ماسک» برای کارمندان توییتر ارسال کرده بود، کارمندان فدرال را با یک انتخاب روبرو کرد: با پذیرش سیاست بازنگری شده دولت مبنی بر بازگشت به کار در دفتر، «وفاداری» خود را نشان دهید یا استعفا دهید. در آن زمان، شایعاتی مبنی بر استفاده «DOGE» از هوش مصنوعی برای پردازش دادههای کارمندان دولت منتشر شد. تأییدیه از آن زمان ظهور کرده است و استفاده از Llam2 را برای غربال کردن پاسخهای کارمندان و تعیین کمیت تعداد استعفاها ثابت میکند.
گذشته بحثبرانگیز Llama 2: کاربردهای نظامی و پاسخ متا
تاریخچه Llam2 خالی از جنجال نیست. قابل ذکر است که در ماه نوامبر، محققان چینی از Llam2 به عنوان شالوده یک مدل هوش مصنوعی مورد استفاده ارتش چین استفاده کردند. این افشاگری باعث واکنشهای شدیدی شد و متا را بر آن داشت تا در ابتدا استفاده “غیرمجاز” محققان از یک مدل “تکی” و “منسوخ” را محکوم کند. با این حال، متا متعاقباً سیاستهای خود را در ممنوعیت کاربردهای نظامی تغییر داد و دسترسی به مدلهای هوش مصنوعی خود را برای اهداف امنیت ملی ایالات متحده گسترش داد.
متا به طور علنی تعهد خود را برای در دسترس قرار دادن Llama برای آژانسهای دولتی ایالات متحده، از جمله کسانی که در برنامههای دفاعی و امنیت ملی نقش دارند، و همچنین شرکای بخش خصوصی که از تلاشهای آنها حمایت میکنند، اعلام کرد. آنها مشارکت با شرکتهایی مانند Accenture ،Amazon Web Services ،Anduril ،Booz Allen ،Databricks ،Deloitte ،IBM ،Leidos ،Lockheed Martin ،Microsoft ،Oracle ،Palantir ،Scale AI و Snowflake را برای تسهیل استقرار Llama در سراسر آژانسهای دولتی اعلام کردند.
Wired حدس میزند که ماهیت کد باز مدلهای متا به دولت اجازه میدهد تا به راحتی از آنها در حمایت از اهداف ماسک استفاده کند، احتمالاً بدون رضایت صریح شرکت. شناسایی میزان استقرار مدلهای متا در داخل دولت همچنان یک چالش است. منطق اتکای DOGE به Llam2، به ویژه با توجه به پیشرفتهای متا با Llama 3 و 4، مشخص نیست.
دانش محدود از استفاده DOGE از Llama 2
جزئیات مربوط به کاربرد خاص DOGE ازLlama2 همچنان اندک است. تحقیقات Wired نشان داد که DOGE مدل را به صورت محلی مستقر کرده است، که نشان میدهد احتمالاً دادهها از طریق اینترنت منتقل نشدهاند، بنابراین نگرانیهای مربوط به نقض حریم خصوصی که بسیاری از کارمندان دولت ابراز کردهاند، کاهش مییابد.
نگرانیهای کنگره و درخواستها برای تحقیقات
در نامهای در ماه آوریل به راسل ووت، مدیر دفتر مدیریت و بودجه، بیش از 40 قانونگذار خواستار تحقیقات کامل در مورد استفاده DOGE از هوش مصنوعی شدند. آنها ابراز نگرانی کردند که چنین استفادهای، در کنار خطرات احتمالی امنیتی، میتواند پذیرش موفق و مناسب هوش مصنوعی در داخل دولت را تضعیف کند.
این نامه به طور خاص به یکی از کارکنان DOGE و کارمند سابق SpaceX اشاره دارد که ظاهراً از مدل xAI Grok-2 ماسک، برای توسعه یک “دستیار هوش مصنوعی” استفاده کرده است. همچنین به استفاده از یک ربات گفتگو با نام «GSAi» بر اساس مدلهای Anthropic و Meta، برای تجزیه و تحلیل دادههای قرارداد و تدارکات اشاره شد. علاوه بر این، DOGE با نرمافزاری به نام AutoRIF مرتبط است که ظاهراً برای تسریع اخراج دستهجمعی در سراسر دولت طراحی شده است.
قانونگذاران بر “نگرانیهای اساسی در مورد امنیت” پیرامون استفاده DOGE از “سیستمهای هوش مصنوعی برای تجزیه و تحلیل ایمیلها از بخش بزرگی از نیروی کار فدرال دو میلیون نفری که دستاوردهای هفته قبل خود را شرح میدهند” تاکید کردند و به عدم شفافیت اشاره کردند.
این ایمیلها پس از ایمیلهای “دوراهی” ارسال شدند و از کارگران خواستند دستاوردهای هفتگی خود را در پنج نکته بیان کنند. کارمندان در مورد ماهیت پاسخها ابراز نگرانی کردند و ترسیدند که DOGE ممکن است بدون مجوزهای امنیتی مناسب اطلاعات حساس را درخواست کند.
Wired نتوانست به طور قطعی تأیید کند که آیا از Llama2 نیز برای تجزیه این پاسخهای ایمیلی استفاده شده است یا خیر. با این حال، کارمندان فدرال به Wired پیشنهاد کردند که DOGE احتمالاً “کد خود را” از آزمایش ایمیل “دوراهی” “ دوباره استفاده کند، اگر این یک تصمیم عاقلانه بود.
چرا از گروک استفاده نشد
این سوال مطرح میشود: چرا DOGE از گروک استفاده نکرد؟
توضیح احتمالی این است که گروک به عنوان یک مدل اختصاصی در آن زمان، برای کار DOGE در ژانویه در دسترس نبود. به گفته Wired، DOGE ممکن است اتکای خود را به گروک در آینده افزایش دهد، به ویژه با توجه به اعلام مایکروسافت مبنی بر اینکه شروع به میزبانی مدلهای Grok 3 xAI در Azure AI Foundry خود از این هفته خواهد کرد، و از این طریق برنامههای بالقوه مدل را گسترش میدهد.
نگرانیهای قانونگذاران: تعارض منافع و نقض دادهها
قانونگذاران در نامه خود از ووت خواستند تا در مورد تعارض منافع احتمالی مربوط به ماسک تحقیق کند، در حالی که نسبت به نقض احتمالی دادهها نیز هشدار دادند. آنها ادعا کردند که هوش مصنوعی، همانطور که توسط DOGE استفاده میشود، هنوز برای کاربردهای دولتی مناسب نیست.
آنها استدلال کردند که “بدون حفاظت مناسب، تغذیه دادههای حساس به یک سیستم هوش مصنوعی آن را در اختیار اپراتور سیستم قرار میدهد - نقض گسترده اعتماد عمومی و کارمندان و افزایش خطرات امنیت سایبری پیرامون آن دادهها.” آنها در ادامه خاطرنشان کردند که “مدلهای تولیدی هوش مصنوعی نیز اغلب مرتکب اشتباه میشوند و تعصبات قابل توجهی را نشان میدهند - این فناوری به سادگی برای استفاده در تصمیمگیریهای پرخطر بدون بررسی، شفافیت، نظارت و حفاظهای مناسب آماده نیست.”
در حالی که گزارش Wired نشان میدهد که DOGE دادههای حساس ایمیلهای “دوراهی” را به یک منبع خارجی منتقل نکرده است، قانونگذاران از بررسی دقیقتر سیستمهای هوش مصنوعی برای کاهش “خطر اشتراکگذاری اطلاعات قابل شناسایی شخصی یا اطلاعات حساس در غیر این صورت با مستقرکنندگان مدل هوش مصنوعی” حمایت میکنند.
نگرانی غالب این است که ماسک بتواند به طور فزایندهای از مدلهای خود استفاده کند، و به طور بالقوه از دادههای دولتی که برای رقبای او غیرقابل دسترس است، بهرهمند شود، در حالی که همزمان آن دادهها را در معرض خطر نقض قرار میدهد. قانونگذاران امیدوارند که DOGE مجبور شود سیستمهای هوش مصنوعی خود را متوقف کند. با این حال، به نظر میرسد ووت با رویکرد DOGE همسوتر است، همانطور که در راهنمای هوش مصنوعی او برای استفاده فدرال مشهود است، که آژانسها را تشویق میکند تا “ موانع نوآوری را بردارند و بهترین ارزش را برای مالیات دهندگان ارائه دهند”.
نامه قانونگذاران تأکید میکند که “در حالی که ما از ادغام فناوریهای جدید و تایید شده هوش مصنوعی که میتوانند کارایی یا اثربخشی را بهبود بخشند توسط دولت فدرال حمایت میکنیم، اما هنگام تعامل با دادههای فدرال نمیتوانیم از امنیت، حریم خصوصی و استانداردهای استفاده مناسب چشم پوشی کنیم.” آنها همچنین اظهار داشتند که “ما نمیتوانیم استفاده از سیستمهای هوش مصنوعی را که اغلب به توهم و تعصب مشهور هستند، در تصمیمگیری در مورد خاتمه استخدام فدرال یا بودجه فدرال بدون شفافیت و نظارت کافی بر آن مدلها تأیید کنیم - خطر از دست دادن استعداد و تحقیقات مهم به دلیل فناوری معیوب یا استفادههای معیوب از چنین فناوری به سادگی بسیار زیاد است.”
عمیق شدن در مفاهیم استفاده از هوش مصنوعی در ابتکارات کارایی دولت
داستان در حال آشکار شدن استفاده دپارتمان بهرهوری دولت (DOGE) از هوش مصنوعی در تلاشهای سادهسازی عملیاتی خود، طوفانی از بحث و بررسی را برانگیخته است. این افشاگری که این آژانس بر مدل Llama 2 متا - یک هوش مصنوعی متن باز - تکیه کرده است، نه هوش مصنوعی اختصاصی Grok از ایلان ماسک، لایهای از پیچیدگی را به یک روایت از قبل پیچیده اضافه کرده است. این وضعیت مستلزم غور عمیق در مفاهیم چندوجهی ادغام هوش مصنوعی در عملیات دولت است، بررسی مزایا و خطرات ذاتی، ملاحظات اخلاقی و پتانسیل تعارض منافع.
جذابیت و دامهای هوش مصنوعی در دولت
ادغام هوش مصنوعی در عملکردهای دولت، نوید پیشرفتهای متحول کننده در کارایی، تجزیه و تحلیل دادهها و تصمیمگیری را میدهد. هوش مصنوعی از خودکارسازی وظایف معمول گرفته تا غربال کردن مجموعههای داده وسیع، این پتانسیل را دارد که سطوح بیسابقهای از بهرهوری را باز کند و ارائه خدمات عمومی را بهبود بخشد. الگوریتمهایی را تصور کنید که میتوانند خرابیهای زیرساخت را پیشبینی کنند، آموزش را شخصیسازی کنند یا تخصیص منابع را در تلاشهای امدادرسانی به بلایا بهینه کنند. احتمالات ظاهراً بیپایان هستند.
با این حال، این انقلاب تکنولوژیکی خالی از خطرات نیست. اتکا به سیستمهای هوش مصنوعی، شبکهای پیچیده از معضلات اخلاقی، آسیبپذیریهای امنیتی و تعصبات بالقوه را معرفی میکند. مدلهای هوش مصنوعی بر اساس دادهها آموزش داده میشوند و اگر آن دادهها منعکسکننده تعصبات اجتماعی باشند، هوش مصنوعی آن تعصبات را تداوم و حتی تقویت میکند. این امر تهدیدی قابل توجه برای عدالت و برابری در خدمات دولتی ایجاد میکند و به طور بالقوه منجر به نتایج تبعیضآمیز در زمینههایی مانند اجرای قانون، رفاه اجتماعی و آموزش میشود.
علاوه بر این، استفاده از هوش مصنوعی سؤالات عمیقی را در مورد شفافیت و پاسخگویی ایجاد میکند. هنگامی که تصمیمات توسط الگوریتمها گرفته میشوند، درک منطق پشت آن تصمیمات دشوار میشود و پاسخگو کردن آژانسهای دولتی در قبال اقدامات خود دشوار میشود.
معما Llama 2 در مقابل گروک
انتخاب Llama 2 بر Grok مجموعه ملاحظات خاص خود را به همراه دارد. ماهیت متن باز Llama 2 باعث میشود که به راحتی قابل دسترسی و سفارشیسازی باشد و به آژانسهای دولتی اجازه میدهد تا آن را با نیازهای خاص خود تطبیق دهند بدون اینکه در یک اکوسیستم اختصاصی قفل شوند. با این حال، این بدان معناست که فاقد پشتیبانی و نگهداری اختصاصی است که معمولاً با راهحلهای هوش مصنوعی همراه است.
از سوی دیگر، گروک به عنوان یک هوش مصنوعی اختصاصی، نوید عملکرد پیشرفته و تخصص تخصصی را میدهد. با این حال، نگرانیهایی را نیز در مورد قفل شدن بالقوه فروشنده، حریم خصوصی دادهها و تعصب ناشی از دادههای آموزشی هوش مصنوعی ایجاد میکند. این امر نگرانیها را در مورد پتانسیل هر نهاد خصوصی، به ویژه یکی که با یک چهره برجسته مرتبط با اهداف دولت پیوند نزدیک دارد، برای اعمال نفوذ ناروا بر فرآیندهای تصمیمگیری برجسته میکند.
شبح تضاد منافع
دخالت نهادهای ایلان ماسک (SpaceX و xAI) در ابتکارات هوش مصنوعی دولت، شبح تضاد منافع را برمیانگیزد. به عنوان یک چهره برجسته با منافع موجه در بخشهای مختلف، دخالت ماسک سوالاتی را در مورد نفوذ بالقوهای که ممکن است بر سیاست دولت و اعطای قراردادها اعمال کند، ایجاد میکند.
آیا دولت به شرکتهای ماسک رفتار ترجیحی میدهد؟ آیا حفاظهای کافی برای اطمینان از اینکه تصمیمات به طور بیطرفانه و به بهترین شکل به نفع مردم گرفته میشوند، وجود دارد؟ اینها سوالات مشروعی هستند که نیاز به بررسی دقیق دارند.
نگرانیهای امنیتی و حریم خصوصی دادهها
استفاده از هوش مصنوعی در عملیات دولت ناگزیر شامل جمعآوری، ذخیرهسازی و پردازش دادههای حساس شهروندان است. این امر یک هدف وسوسهانگیز برای حملات سایبری و نقض دادهها ایجاد میکند. دولت باید اقدامات امنیتی قوی برای محافظت از این دادهها در برابر دسترسی غیرمجاز و سوء استفاده اجرا کند. این شامل نه تنها محافظت از دادهها در برابر تهدیدات خارجی، بلکه ایجاد کنترلهای دسترسی سختگیرانه و سازوکارهای پاسخگویی برای جلوگیری از سوء استفاده داخلی است.
نگرانیها در مورد حریم خصوصی دادهها با ماهیت مبهم الگوریتمهای هوش مصنوعی تشدید میشود. شهروندان اغلب هیچ تصوری ندارند که چگونه دادههای آنها پردازش یا برای تصمیمگیریهایی که زندگی آنها را تحت تاثیر قرار می دهند، استفاده میشود. این فقدان شفافیت، اعتماد به دولت را از بین میبرد و میتواند منجر به مقاومت در برابر ابتکارات مبتنی بر هوش مصنوعی شود.
مفاهیم برای آینده دولت
بحث در مورد استفاده DOGE از هوش مصنوعی فقط مربوط به یک مورد خاص نیست، بلکه مربوط به آینده گستردهتر دولت در عصر هوش مصنوعی است. چگونه دولت میتواند از قدرت هوش مصنوعی برای بهبود خدمات عمومی و در عین حال کاهش خطرات استفاده کند؟ چگونه میتوانیم اطمینان حاصل کنیم که هوش مصنوعی به طور اخلاقی، شفاف و پاسخگو استفاده میشود؟
پاسخ به این سوالات مستلزم یک رویکرد چندجانبه است:
ایجاد دستورالعملهای اخلاقی روشن: مجموعه اصول اخلاقی روشنی را تنظیم کنید که استفاده از هوش مصنوعی در دولت را اداره کند. این اصول باید عدالت، شفافیت، پاسخگویی و احترام به حریم خصوصی را در اولویت قرار دهند.
ارتقای شفافیت و گشودگی: الگوریتمهای هوش مصنوعی و فرآیندهای تصمیمگیری را شفافتر کنید. گزارشهایی را منتشر کنید که نحوه استفاده از هوش مصنوعی در دولت را شرح میدهند و راههایی برای ارائه بازخورد از سوی شهروندان ارائه دهید.
حفاظت از امنیت دادهها: اقدامات امنیتی قوی برای محافظت از دادههای حساس شهروندان در برابر تهدیدات سایبری و سوء استفاده داخلی اجرا کنید.
تضمین پاسخگویی: خطوط پاسخگویی روشنی را برای تصمیمات مبتنی بر هوش مصنوعی ایجاد کنید. مقامات دولتی را تعیین کنید که مسئول نظارت بر استفاده از هوش مصنوعی و رسیدگی به هر مشکلی هستند که ممکن است بوجود آید.
پرورش اعتماد عمومی: مردم را در مورد مزایا و خطرات هوش مصنوعی در دولت آموزش دهید. با شهروندان تعامل کنید تا به نگرانیهای آنها رسیدگی کنید و اعتماد به استفاده مسئولانه از این فناوری را ایجاد کنید.
دولت با اتخاذ رویکردی فعال و متفکرانه، میتواند از قدرت متحول کننده هوش مصنوعی استفاده کند و در عین حال از منافع عمومی محافظت کند. جنجال DOGE به عنوان یادآوری ارزشمندی از اهمیت برنامهریزی دقیق، گفتگوی باز و تعهد به اصول اخلاقی در عصر هوش مصنوعی است.
روایت در حال آشکار شدن
نمایش پیرامون استفاده DOGE از هوش مصنوعی هنوز به پایان نرسیده است. با ادامه تحقیقات و آشکار شدن جزئیات بیشتر، این حادثه بدون شک پیامدهایی برای آینده استقرار هوش مصنوعی در داخل دولت خواهد داشت. امیدواریم این وضعیت منجر به ادغام متفکرانهتر فناوری شود.