Llama 2 متا، نه Grok ماسک، در کاهش کارمندان

ابتکارات کاهش کارکنان دولت با Llama 2 متا انجام شد، نه Grok ماسک

یک افشاگری غیرمنتظره نشان می‌دهد که ابتکارات به شدت مورد بررسی دپارتمان بهره‌وری دولت برای ساده‌سازی نیروی کار فدرال، از یک مدل قدیمی‌تر هوش مصنوعی متا، به طور خاص Llama 2، به جای ساخته هوش مصنوعی ایلان ماسک یعنی Grok، استفاده کرده است.

یادداشت «دوراهی» و نقش Llama 2

بر اساس بررسی انجام شده توسط Wired، وابستگان DOGE (دپارتمان بهره‌وری دولت) ایلان ماسک، که در دفتر مدیریت پرسنل فعالیت می‌کنند، از مدل Llama 2 متا برای تجزیه و تحلیل دقیق و دسته‌بندی پاسخ‌های کارمندان فدرال به ایمیل بحث‌برانگیز «دوراهی» که در اواخر ژانویه در سراسر دولت ارسال شد، استفاده کردند.

یادداشت «دوراهی»، که به طرز چشمگیری شبیه به پیام قبلی بود که «ماسک» برای کارمندان توییتر ارسال کرده بود، کارمندان فدرال را با یک انتخاب روبرو کرد: با پذیرش سیاست بازنگری شده دولت مبنی بر بازگشت به کار در دفتر، «وفاداری» خود را نشان دهید یا استعفا دهید. در آن زمان، شایعاتی مبنی بر استفاده «DOGE» از هوش مصنوعی برای پردازش داده‌های کارمندان دولت منتشر شد. تأییدیه از آن زمان ظهور کرده است و استفاده از Llam2 را برای غربال کردن پاسخ‌های کارمندان و تعیین کمیت تعداد استعفاها ثابت می‌کند.

گذشته بحث‌برانگیز Llama 2: کاربردهای نظامی و پاسخ متا

تاریخچه Llam2 خالی از جنجال نیست. قابل ذکر است که در ماه نوامبر، محققان چینی از Llam2 به عنوان شالوده یک مدل هوش مصنوعی مورد استفاده ارتش چین استفاده کردند. این افشاگری باعث واکنش‌های شدیدی شد و متا را بر آن داشت تا در ابتدا استفاده “غیرمجاز” محققان از یک مدل “تکی” و “منسوخ” را محکوم کند. با این حال، متا متعاقباً سیاست‌های خود را در ممنوعیت کاربردهای نظامی تغییر داد و دسترسی به مدل‌های هوش مصنوعی خود را برای اهداف امنیت ملی ایالات متحده گسترش داد.

متا به طور علنی تعهد خود را برای در دسترس قرار دادن Llama برای آژانس‌های دولتی ایالات متحده، از جمله کسانی که در برنامه‌های دفاعی و امنیت ملی نقش دارند، و همچنین شرکای بخش خصوصی که از تلاش‌های آنها حمایت می‌کنند، اعلام کرد. آنها مشارکت با شرکت‌هایی مانند Accenture ،Amazon Web Services ،Anduril ،Booz Allen ،Databricks ،Deloitte ،IBM ،Leidos ،Lockheed Martin ،Microsoft ،Oracle ،Palantir ،Scale AI و Snowflake را برای تسهیل استقرار Llama در سراسر آژانس‌های دولتی اعلام کردند.

Wired حدس می‌زند که ماهیت کد باز مدل‌های متا به دولت اجازه می‌دهد تا به راحتی از آنها در حمایت از اهداف ماسک استفاده کند، احتمالاً بدون رضایت صریح شرکت. شناسایی میزان استقرار مدل‌های متا در داخل دولت همچنان یک چالش است. منطق اتکای DOGE به Llam2، به ویژه با توجه به پیشرفت‌های متا با Llama 3 و 4، مشخص نیست.

دانش محدود از استفاده DOGE از Llama 2

جزئیات مربوط به کاربرد خاص DOGE ازLlama2 همچنان اندک است. تحقیقات Wired نشان داد که DOGE مدل را به صورت محلی مستقر کرده است، که نشان می‌دهد احتمالاً داده‌ها از طریق اینترنت منتقل نشده‌اند، بنابراین نگرانی‌های مربوط به نقض حریم خصوصی که بسیاری از کارمندان دولت ابراز کرده‌اند، کاهش می‌یابد.

نگرانی‌های کنگره و درخواست‌ها برای تحقیقات

در نامه‌ای در ماه آوریل به راسل ووت، مدیر دفتر مدیریت و بودجه، بیش از 40 قانونگذار خواستار تحقیقات کامل در مورد استفاده DOGE از هوش مصنوعی شدند. آنها ابراز نگرانی کردند که چنین استفاده‌ای، در کنار خطرات احتمالی امنیتی، می‌تواند پذیرش موفق و مناسب هوش مصنوعی در داخل دولت را تضعیف کند.

این نامه به طور خاص به یکی از کارکنان DOGE و کارمند سابق SpaceX اشاره دارد که ظاهراً از مدل xAI Grok-2 ماسک، برای توسعه یک “دستیار هوش مصنوعی” استفاده کرده است. همچنین به استفاده از یک ربات گفتگو با نام «GSAi» بر اساس مدل‌های Anthropic و Meta، برای تجزیه و تحلیل داده‌های قرارداد و تدارکات اشاره شد. علاوه بر این، DOGE با نرم‌افزاری به نام AutoRIF مرتبط است که ظاهراً برای تسریع اخراج دسته‌جمعی در سراسر دولت طراحی شده است.

قانونگذاران بر “نگرانی‌های اساسی در مورد امنیت” پیرامون استفاده DOGE از “سیستم‌های هوش مصنوعی برای تجزیه و تحلیل ایمیل‌ها از بخش بزرگی از نیروی کار فدرال دو میلیون نفری که دستاوردهای هفته قبل خود را شرح می‌دهند” تاکید کردند و به عدم شفافیت اشاره کردند.

این ایمیل‌ها پس از ایمیل‌های “دوراهی” ارسال شدند و از کارگران خواستند دستاوردهای هفتگی خود را در پنج نکته بیان کنند. کارمندان در مورد ماهیت پاسخ‌ها ابراز نگرانی کردند و ترسیدند که DOGE ممکن است بدون مجوزهای امنیتی مناسب اطلاعات حساس را درخواست کند.

Wired نتوانست به طور قطعی تأیید کند که آیا از Llama2 نیز برای تجزیه این پاسخ‌های ایمیلی استفاده شده است یا خیر. با این حال، کارمندان فدرال به Wired پیشنهاد کردند که DOGE احتمالاً “کد خود را” از آزمایش ایمیل “دوراهی” “ دوباره استفاده کند، اگر این یک تصمیم عاقلانه بود.

چرا از گروک استفاده نشد

این سوال مطرح می‌شود: چرا DOGE از گروک استفاده نکرد؟

توضیح احتمالی این است که گروک به عنوان یک مدل اختصاصی در آن زمان، برای کار DOGE در ژانویه در دسترس نبود. به گفته Wired، DOGE ممکن است اتکای خود را به گروک در آینده افزایش دهد، به ویژه با توجه به اعلام مایکروسافت مبنی بر اینکه شروع به میزبانی مدل‌های Grok 3 xAI در Azure AI Foundry خود از این هفته خواهد کرد، و از این طریق برنامه‌های بالقوه مدل را گسترش می‌دهد.

نگرانی‌های قانونگذاران: تعارض منافع و نقض داده‌ها

قانونگذاران در نامه خود از ووت خواستند تا در مورد تعارض منافع احتمالی مربوط به ماسک تحقیق کند، در حالی که نسبت به نقض احتمالی داده‌ها نیز هشدار دادند. آنها ادعا کردند که هوش مصنوعی، همانطور که توسط DOGE استفاده می‌شود، هنوز برای کاربردهای دولتی مناسب نیست.

آنها استدلال کردند که “بدون حفاظت مناسب، تغذیه داده‌های حساس به یک سیستم هوش مصنوعی آن را در اختیار اپراتور سیستم قرار می‌دهد - نقض گسترده اعتماد عمومی و کارمندان و افزایش خطرات امنیت سایبری پیرامون آن داده‌ها.” آنها در ادامه خاطرنشان کردند که “مدل‌های تولیدی هوش مصنوعی نیز اغلب مرتکب اشتباه می‌شوند و تعصبات قابل توجهی را نشان می‌دهند - این فناوری به سادگی برای استفاده در تصمیم‌گیری‌های پرخطر بدون بررسی، شفافیت، نظارت و حفاظ‌های مناسب آماده نیست.”

در حالی که گزارش Wired نشان می‌دهد که DOGE داده‌های حساس ایمیل‌های “دوراهی” را به یک منبع خارجی منتقل نکرده است، قانونگذاران از بررسی دقیق‌تر سیستم‌های هوش مصنوعی برای کاهش “خطر اشتراک‌گذاری اطلاعات قابل شناسایی شخصی یا اطلاعات حساس در غیر این صورت با مستقرکنندگان مدل هوش مصنوعی” حمایت می‌کنند.

نگرانی غالب این است که ماسک بتواند به طور فزاینده‌ای از مدل‌های خود استفاده کند، و به طور بالقوه از داده‌های دولتی که برای رقبای او غیرقابل دسترس است، بهره‌مند شود، در حالی که همزمان آن داده‌ها را در معرض خطر نقض قرار می‌دهد. قانونگذاران امیدوارند که DOGE مجبور شود سیستم‌های هوش مصنوعی خود را متوقف کند. با این حال، به نظر می‌رسد ووت با رویکرد DOGE همسوتر است، همانطور که در راهنمای هوش مصنوعی او برای استفاده فدرال مشهود است، که آژانس‌ها را تشویق می‌کند تا “ موانع نوآوری را بردارند و بهترین ارزش را برای مالیات دهندگان ارائه دهند”.

نامه قانونگذاران تأکید می‌کند که “در حالی که ما از ادغام فناوری‌های جدید و تایید شده هوش مصنوعی که می‌توانند کارایی یا اثربخشی را بهبود بخشند توسط دولت فدرال حمایت می‌کنیم، اما هنگام تعامل با داده‌های فدرال نمی‌توانیم از امنیت، حریم خصوصی و استانداردهای استفاده مناسب چشم پوشی کنیم.” آنها همچنین اظهار داشتند که “ما نمی‌توانیم استفاده از سیستم‌های هوش مصنوعی را که اغلب به توهم و تعصب مشهور هستند، در تصمیم‌گیری در مورد خاتمه استخدام فدرال یا بودجه فدرال بدون شفافیت و نظارت کافی بر آن مدل‌ها تأیید کنیم - خطر از دست دادن استعداد و تحقیقات مهم به دلیل فناوری معیوب یا استفاده‌های معیوب از چنین فناوری به سادگی بسیار زیاد است.”

عمیق شدن در مفاهیم استفاده از هوش مصنوعی در ابتکارات کارایی دولت

داستان در حال آشکار شدن استفاده دپارتمان بهره‌وری دولت (DOGE) از هوش مصنوعی در تلاش‌های ساده‌سازی عملیاتی خود، طوفانی از بحث و بررسی را برانگیخته است. این افشاگری که این آژانس بر مدل Llama 2 متا - یک هوش مصنوعی متن باز - تکیه کرده است، نه هوش مصنوعی اختصاصی Grok از ایلان ماسک، لایه‌ای از پیچیدگی را به یک روایت از قبل پیچیده اضافه کرده است. این وضعیت مستلزم غور عمیق در مفاهیم چندوجهی ادغام هوش مصنوعی در عملیات دولت است، بررسی مزایا و خطرات ذاتی، ملاحظات اخلاقی و پتانسیل تعارض منافع.

جذابیت و دام‌های هوش مصنوعی در دولت

ادغام هوش مصنوعی در عملکردهای دولت، نوید پیشرفت‌های متحول کننده در کارایی، تجزیه و تحلیل داده‌ها و تصمیم‌گیری را می‌دهد. هوش مصنوعی از خودکارسازی وظایف معمول گرفته تا غربال کردن مجموعه‌های داده وسیع، این پتانسیل را دارد که سطوح بی‌سابقه‌ای از بهره‌وری را باز کند و ارائه خدمات عمومی را بهبود بخشد. الگوریتم‌هایی را تصور کنید که می‌توانند خرابی‌های زیرساخت را پیش‌بینی کنند، آموزش را شخصی‌سازی کنند یا تخصیص منابع را در تلاش‌های امدادرسانی به بلایا بهینه کنند. احتمالات ظاهراً بی‌پایان هستند.

با این حال، این انقلاب تکنولوژیکی خالی از خطرات نیست. اتکا به سیستم‌های هوش مصنوعی، شبکه‌ای پیچیده از معضلات اخلاقی، آسیب‌پذیری‌های امنیتی و تعصبات بالقوه را معرفی می‌کند. مدل‌های هوش مصنوعی بر اساس داده‌ها آموزش داده می‌شوند و اگر آن داده‌ها منعکس‌کننده تعصبات اجتماعی باشند، هوش مصنوعی آن تعصبات را تداوم و حتی تقویت می‌کند. این امر تهدیدی قابل توجه برای عدالت و برابری در خدمات دولتی ایجاد می‌کند و به طور بالقوه منجر به نتایج تبعیض‌آمیز در زمینه‌هایی مانند اجرای قانون، رفاه اجتماعی و آموزش می‌شود.

علاوه بر این، استفاده از هوش مصنوعی سؤالات عمیقی را در مورد شفافیت و پاسخگویی ایجاد می‌کند. هنگامی که تصمیمات توسط الگوریتم‌ها گرفته می‌شوند، درک منطق پشت آن تصمیمات دشوار می‌شود و پاسخگو کردن آژانس‌های دولتی در قبال اقدامات خود دشوار می‌شود.

معما Llama 2 در مقابل گروک

انتخاب Llama 2 بر Grok مجموعه ملاحظات خاص خود را به همراه دارد. ماهیت متن باز Llama 2 باعث می‌شود که به راحتی قابل دسترسی و سفارشی‌سازی باشد و به آژانس‌های دولتی اجازه می‌دهد تا آن را با نیازهای خاص خود تطبیق دهند بدون اینکه در یک اکوسیستم اختصاصی قفل شوند. با این حال، این بدان معناست که فاقد پشتیبانی و نگهداری اختصاصی است که معمولاً با راه‌حل‌های هوش مصنوعی همراه است.

از سوی دیگر، گروک به عنوان یک هوش مصنوعی اختصاصی، نوید عملکرد پیشرفته و تخصص تخصصی را می‌دهد. با این حال، نگرانی‌هایی را نیز در مورد قفل شدن بالقوه فروشنده، حریم خصوصی داده‌ها و تعصب ناشی از داده‌های آموزشی هوش مصنوعی ایجاد می‌کند. این امر نگرانی‌ها را در مورد پتانسیل هر نهاد خصوصی، به ویژه یکی که با یک چهره برجسته مرتبط با اهداف دولت پیوند نزدیک دارد، برای اعمال نفوذ ناروا بر فرآیندهای تصمیم‌گیری برجسته می‌کند.

شبح تضاد منافع

دخالت نهادهای ایلان ماسک (SpaceX و xAI) در ابتکارات هوش مصنوعی دولت، شبح تضاد منافع را برمی‌انگیزد. به عنوان یک چهره برجسته با منافع موجه در بخش‌های مختلف، دخالت ماسک سوالاتی را در مورد نفوذ بالقوه‌ای که ممکن است بر سیاست دولت و اعطای قراردادها اعمال کند، ایجاد می‌کند.

آیا دولت به شرکت‌های ماسک رفتار ترجیحی می‌دهد؟ آیا حفاظ‌های کافی برای اطمینان از اینکه تصمیمات به طور بی‌طرفانه و به بهترین شکل به نفع مردم گرفته می‌شوند، وجود دارد؟ اینها سوالات مشروعی هستند که نیاز به بررسی دقیق دارند.

نگرانی‌های امنیتی و حریم خصوصی داده‌ها

استفاده از هوش مصنوعی در عملیات دولت ناگزیر شامل جمع‌آوری، ذخیره‌سازی و پردازش داده‌های حساس شهروندان است. این امر یک هدف وسوسه‌انگیز برای حملات سایبری و نقض داده‌ها ایجاد می‌کند. دولت باید اقدامات امنیتی قوی برای محافظت از این داده‌ها در برابر دسترسی غیرمجاز و سوء استفاده اجرا کند. این شامل نه تنها محافظت از داده‌ها در برابر تهدیدات خارجی، بلکه ایجاد کنترل‌های دسترسی سختگیرانه و سازوکارهای پاسخگویی برای جلوگیری از سوء استفاده داخلی است.

نگرانی‌ها در مورد حریم خصوصی داده‌ها با ماهیت مبهم الگوریتم‌های هوش مصنوعی تشدید می‌شود. شهروندان اغلب هیچ تصوری ندارند که چگونه داده‌های آنها پردازش یا برای تصمیم‌گیری‌هایی که زندگی آنها را تحت تاثیر قرار می دهند، استفاده می‌شود. این فقدان شفافیت، اعتماد به دولت را از بین می‌برد و می‌تواند منجر به مقاومت در برابر ابتکارات مبتنی بر هوش مصنوعی شود.

مفاهیم برای آینده دولت

بحث در مورد استفاده DOGE از هوش مصنوعی فقط مربوط به یک مورد خاص نیست، بلکه مربوط به آینده گسترده‌تر دولت در عصر هوش مصنوعی است. چگونه دولت می‌تواند از قدرت هوش مصنوعی برای بهبود خدمات عمومی و در عین حال کاهش خطرات استفاده کند؟ چگونه می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی به طور اخلاقی، شفاف و پاسخگو استفاده می‌شود؟

پاسخ به این سوالات مستلزم یک رویکرد چندجانبه است:

  • ایجاد دستورالعمل‌های اخلاقی روشن: مجموعه اصول اخلاقی روشنی را تنظیم کنید که استفاده از هوش مصنوعی در دولت را اداره کند. این اصول باید عدالت، شفافیت، پاسخگویی و احترام به حریم خصوصی را در اولویت قرار دهند.

  • ارتقای شفافیت و گشودگی: الگوریتم‌های هوش مصنوعی و فرآیندهای تصمیم‌گیری را شفاف‌تر کنید. گزارش‌هایی را منتشر کنید که نحوه استفاده از هوش مصنوعی در دولت را شرح می‌دهند و راه‌هایی برای ارائه بازخورد از سوی شهروندان ارائه دهید.

  • حفاظت از امنیت داده‌ها: اقدامات امنیتی قوی برای محافظت از داده‌های حساس شهروندان در برابر تهدیدات سایبری و سوء استفاده داخلی اجرا کنید.

  • تضمین پاسخگویی: خطوط پاسخگویی روشنی را برای تصمیمات مبتنی بر هوش مصنوعی ایجاد کنید. مقامات دولتی را تعیین کنید که مسئول نظارت بر استفاده از هوش مصنوعی و رسیدگی به هر مشکلی هستند که ممکن است بوجود آید.

  • پرورش اعتماد عمومی: مردم را در مورد مزایا و خطرات هوش مصنوعی در دولت آموزش دهید. با شهروندان تعامل کنید تا به نگرانی‌های آنها رسیدگی کنید و اعتماد به استفاده مسئولانه از این فناوری را ایجاد کنید.

دولت با اتخاذ رویکردی فعال و متفکرانه، می‌تواند از قدرت متحول کننده هوش مصنوعی استفاده کند و در عین حال از منافع عمومی محافظت کند. جنجال DOGE به عنوان یادآوری ارزشمندی از اهمیت برنامه‌ریزی دقیق، گفتگوی باز و تعهد به اصول اخلاقی در عصر هوش مصنوعی است.

روایت در حال آشکار شدن

نمایش پیرامون استفاده DOGE از هوش مصنوعی هنوز به پایان نرسیده است. با ادامه تحقیقات و آشکار شدن جزئیات بیشتر، این حادثه بدون شک پیامدهایی برای آینده استقرار هوش مصنوعی در داخل دولت خواهد داشت. امیدواریم این وضعیت منجر به ادغام متفکرانه‌تر فناوری شود.