Разъяснения показывают, что инициативы по сокращению федерального персонала использовали Llama 2, а не Grok.
Меморандум “Развилка на дороге” и роль Llama 2
Согласно обзору Wired, филиалы DOGE (Департамент правительственной эффективности) привлекали Llama 2 для анализа ответов на электронное письмо “Развилка на дороге”.
Этот меморандум, как и сообщения Маска в Twitter, предлагал федеральным работникам выбор: принять политику возврата в офис или уйти в отставку. Llama 2 использовался для обработки ответов и подсчета увольнений.
Противоречивое прошлое Llama 2: военные приложения и ответ Meta
История Llama 2 не лишена противоречий. Китайские исследователи использовали Llama 2 в качестве основы для военной модели AI. Meta изначально осудила это, но затем расширила доступ к своим моделям для целей национальной безопасности США.
Meta заявила о своей приверженности предоставлению Llama государственным учреждениям США и заключила партнерские отношения с такими фирмами, как Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI и Snowflake для облегчения развертывания Llama в государственных учреждениях.
Wired предполагает, что открытый исходный код позволяет правительству использовать их в поддержку целей Маска без явного согласия компании.
Ограниченное знание об использовании Llama 2 со стороны DOGE
Подробности об использовании Llama 2 со стороны DOGE остаются скудными. DOGE развернул модель локально, что снижает опасения по поводу конфиденциальности.
Запросы Конгресса и призывы к расследованию
В апреле более 40 законодателей потребовали расследования использования AI со стороны DOGE, выразив обеспокоенность по поводу потенциальных рисков безопасности.
В письме упоминалось об использовании Grok-2 и чат-бота “GSAi” (на базе Anthropic и Meta) для анализа данных о контрактах. Также DOGE связан с программным обеспечением AutoRIF, предназначенным для массовых увольнений.
Законодатели выразили обеспокоенность по поводу безопасности при анализе электронных писем, «описывающих достижения за предыдущую неделю».
Работники опасались, что DOGE запрашивает конфиденциальную информацию без разрешений безопасности. Wired не смог подтвердить, что Llama 2 также использовался для анализа этих электронных писем.
Почему Grok не использовался
Grok был недоступен для DOGE в январе, поскольку был частной моделью. DOGE может полагаться на Grok в будущем, особенно учитывая, что Microsoft будет размещать модели Grok 3 xAI в Azure AI Foundry.
Опасения законодателей: конфликты интересов и утечки данных
Законодатели призвали расследовать потенциальные конфликты интересов, связанные с Маском, и предостерегли от утечек данных. Они заявили, что AI, используемый DOGE, еще не подходит для государственных приложений.
Безопасность крайне важна, “без надлежащей защиты передача конфиденциальных данных в систему AI передает их оператору системы - это грубое нарушение общественного доверия и увеличение рисков кибербезопасности”. Они также отметили, что “генеративные модели AI часто допускают ошибки и демонстрируют значительные предубеждения - технология просто не готова для использования в принятии решений с высоким риском без надлежащей проверки, прозрачности, надзора и мер предосторожности”.
Хотя Wired предполагает, что DOGE не передавал конфиденциальные данные из электронных писем “Развилка на дороге” внешнему источнику, законодатели выступают за более надежную проверку систем AI.
Заявлено опасение, что Маск может использовать свои собственные модели, потенциально получая выгоду от государственных данных и подвергая эти данные риску утечки. Законодатели надеются, что DOGE прекратит использование своих систем AI.
В заключении законодатели подчеркивают, что “хотя мы поддерживаем интеграцию федеральным правительством новых, утвержденных технологий AI, которые могут повысить эффективность, мы не можем жертвовать безопасностью, конфиденциальностью и стандартами надлежащего использования при взаимодействии с федеральными данными”. Они также заявляют, что “мы также не потерпим использование систем AI, известных галлюцинациями и предвзятостью, в решениях, касающихся прекращения федеральной занятости или федерального финансирования, без достаточной прозрачности и контроля над этими моделями - риск потери талантов и критических исследований из-за несовершенной технологии или ошибочного использования такой технологии просто слишком высок”.
Глубокое погружение в последствия использования AI в инициативах по повышению эффективности правительства
Раскрывающаяся сага об использовании искусственного интеллекта Департаментом правительственной эффективности (DOGE) в усилиях по оптимизации работы вызвала настоящую бурю дебатов и проверок. Откровение о том, что агентство опиралось на модель Llama 2 от Meta — AI с открытым исходным кодом — а не на фирменный AI Grok от Илона Маска, добавило еще один слой сложности в и без того запутанное повествование. Эта ситуация требует глубокого погружения в многогранные последствия интеграции AI в правительственные операции, изучение присущих выгод и рисков, этических соображений и потенциала для конфликтов интересов.
Преимущества и недостатки AI в правительстве
Интеграция искусственного интеллекта в правительственные функции обещает преобразующие достижения в эффективности, анализе данных и принятии решений. От автоматизации рутинных задач до отбора огромных наборов данных, AI обладает потенциалом для раскрытия беспрецедентных уровней производительности и улучшения предоставления государственных услуг. Представьте себе алгоритмы, которые могут прогнозировать сбои в инфраструктуре, персонализировать образование или оптимизировать распределение ресурсов в усилиях по оказанию помощи при стихийных бедствиях. Возможности кажутся безграничными.
Однако эта технологическая революция не лишена своих опасностей. Опора на системы AI порождает сложную паутину этических дилемм, уязвимостей безопасности и потенциальных предубеждений. Модели AI обучаются на данных, и если эти данные отражают общественные предрассудки, AI увековечит и даже усилит эти предубеждения. Это представляет собой значительную угрозу для справедливости и равенства в государственных услугах, потенциально приводя к дискриминационным результатам в таких областях, как правоохранительные органы, социальное обеспечение и образование.
Кроме того, использование AI поднимает глубокие вопросы о прозрачности и подотчетности. Когда решения принимаются алгоритмами, становится сложно понять логику, стоящую за этими решениями, что затрудняет привлечение государственных учреждений к ответственности за их действия.
Загадка Llama 2 против Grok
Выбор Llama 2 вместо Grok влечет за собой свой собственный набор соображений. Открытый исходный код Llama 2 делает его легкодоступным и настраиваемым, позволяя правительственным учреждениям адаптировать его к своим конкретным потребностям, не запираясь в запатентованной экосистеме. Однако это также означает, что ему не хватает выделенной поддержки и обслуживания, которые обычно предоставляются с фирменными решениями AI.
С другой стороны, Grok, как фирменный AI, предлагает перспективу передовой производительности и специализированного опыта. Однако это также вызывает обеспокоенность по поводу потенциальной зависимости от поставщика, конфиденциальности данных и предвзятости, вытекающей из данных обучения AI. Это подчеркивает обеспокоенность по поводу потенциальной возможности какого-либо частного лица, особенно лица, связанного с известной фигурой, тесно связанной с целями правительства, оказывать неправомерное влияние на процессы принятия решений.
Призрак конфликтов интересов
Участие организаций Илона Маска (SpaceX и xAI) в правительственных инициативах AI поднимает призрак конфликтов интересов. Будучи видной фигурой с корыстными интересами в различных секторах, участие Маска вызывает вопросы о потенциальном влиянии, которое он может оказать на государственную политику и присуждение контрактов.
Будет ли правительство отдавать предпочтение компаниям Маска? Существуют ли адекватные гарантии для обеспечения того, чтобы решения принимались беспристрастно и в наилучших интересах общества? Это законные вопросы, которые требуют тщательной проверки.
Обеспокоенность по поводу безопасности данных и конфиденциальности
Использование AI в правительственных операциях неизбежно включает сбор, хранение и обработку конфиденциальных данных граждан. Это создает заманчивую цель для кибератак и утечек данных. Правительство должно принять надежные меры безопасности для защиты этих данных от несанкционированного доступа и неправильного использования. Это включает в себя не только защиту данных от внешних угроз, но и установление строгих средств контроля доступа и механизмов подотчетности для предотвращения злоупотреблений изнутри.
Опасения по поводу конфиденциальности данных усиливаются непрозрачным характером алгоритмов AI. У граждан часто нет представления о том, как их данные обрабатываются или используются для принятия решений, которые влияют на их жизнь. Это отсутствие прозрачности подрывает доверие к правительству и может привести к сопротивлению инициативам, управляемым AI.
Последствия для будущего правительства
Дебаты об использовании AI со стороны DOGE — это не просто вопрос о конкретном случае, а о более широком будущем правительства в эпоху искусственного интеллекта. Как правительство может использовать мощь AI для улучшения государственных услуг, минимизируя риски? Как мы можем обеспечить, чтобы AI использовался этично, прозрачно и подотчетно?
Ответы на эти вопросы требуют многостороннего подхода:
Установить четкие этические принципы: Кодифицировать четкий свод этических принципов, которые регулируют использование AI в правительстве. Эти принципы должны уделять первоочередное внимание справедливости, прозрачности, подотчетности и уважению конфиденциальности.
Содействовать прозрачности и открытости: Сделать алгоритмы AI и процессы принятия решений более прозрачными. Публиковать отчеты, описывающие, как AI используется в правительстве, и предоставлять гражданам возможности для предоставления обратной связи.
Обеспечить безопасность данных: Принять надежные меры безопасности для защиты конфиденциальных данных граждан от киберугроз и злоупотреблений изнутри.
Обеспечить подотчетность: Установить четкие линии подотчетности для решений, управляемых AI. Назначить правительственных чиновников, которые отвечают за надзор за использованием AI и решение любых проблем, которые могут возникнуть.
Воспитывать общественное доверие: Рассказывать общественности о преимуществах и рисках AI в правительстве. Взаимодействовать с гражданами для решения их проблем и укрепления доверия к ответственному использованию этой технологии.
Приняв упреждающий и продуманный подход, правительство может использовать преобразующую силу AI, защищая при этом общественные интересы. Противоречие DOGE служит ценным напоминанием о важности тщательного планирования, открытого диалога и приверженности этическим принципам в эпоху искусственного интеллекта.
Раскрывающееся повествование
Драма, связанная с использованием AI со стороны DOGE, еще далека от завершения. Поскольку расследования продолжаются и появляется больше деталей, инцидент, несомненно, будет иметь последствия для будущего развёртывания AI в правительстве. Будем надеется, что эта ситуация приведет к более продуманной интеграции технологий.