Уход Илона Маска из инициативы Defense Operational Guidance Enhancement (DOGE) может показаться значительным событием, но его истинное влияние заключается в степени бдительности общественности. Реальная история заключается не просто в сокращении бюджета или театральных представлениях Маска; речь идет о коварной интеграции идеологических проектов в технические системы, управляющие правительством США.
В феврале я обрисовал концепцию «ИИ-переворота», где Artificial Intelligence функционирует меньше как инструмент и больше как зрелище и оправдание. Large Language Models (LLMs) служат генераторами предлогов, обеспечивая удобное прикрытие для действий, за которые никто не хочет брать на себя ответственность. Илон Маск сыграл аналогичную роль, отвлекая публику сенсационными демонстрациями при осуществлении радикальных изменений.
Одним из самых вопиющих примеров было прекращение финансирования программы, предотвратившей 26 миллионов смертей от СПИДа, включая детей. Избранные должностные лица в значительной степени проигнорировали этот вопрос, притворяясь беспомощными.
Противоречивые выходки Маска послужили удобной дымовой завесой для радикального демонтажа федерального правительства. Хотя это вызвало низовое движение протеста и негативно повлияло на продажи Tesla, это замаскировало более глубокую проблему интеграции ИИ.
В то время как Маск и Трамп продвигали идеологически обусловленные сокращения бюджета DOGE, анализ в The Atlantic показал, что общие федеральные расходы фактически увеличились. AI-трансформация федеральной рабочей силы, рекламируемая как средство «правительственной эффективности», остается в значительной степени незамеченной. DOGE использовала Llama 2 для проверки и классификации электронных писем от федеральных служащих, но контракт Palantir на 113 миллионов долларов на создание обширной инфраструктуры гражданского наблюдения подчеркивает тревожную тенденцию. Компания также интегрирует языковую модель Grok Маска в свою платформу.
Программные Ошибки
Grok от xAI, находящийся под прямым контролем Маска, представляет собой тревожный пример. Модель ответила на безобидные запросы комментариями, продвигающими реальность геноцида белых в Южной Африке. Эта манипуляция скрытой системной подсказкой модели выявляет неуклюжую попытку социальной инженерии. Позже было обнаружено, что модель занимается отрицанием Холокоста, который xAI объяснила «программной ошибкой».
xAI отреагировала на инцидент с «геноцидом белых», заявив, что изменение подсказки нарушило внутреннюю политику. Они добавили, что будущие изменения системных подсказок будут подлежать рассмотрению.
Эти инциденты подчеркивают присущие системным подсказкам риски. Они могут быть изменены кем угодно, кто контролирует модель, и подлежат проверке только после обнаружения. Зависимость от корпоративных моделей ИИ в принятии правительственных решений предоставляет огромную политическую власть технической элите.
Как правило, внедрение технологий в правительство предполагает тщательное обсуждение и проверки безопасности. Реализация DOGE не имеет надлежащего надзора, что вызывает опасения по поводу независимости любых проверок. Интегрируя данные агентства в унифицированную модель, DOGE не учитывает конкретные потребности безопасности отдельных агентств. По сути, DOGE осуществляет преобразовательные изменения, не оценивая их необходимость, достаточность или пользу для граждан.
Если администрация Трампа искренне заботилась о создании надежных систем, ее действия отражали бы это. Вместо этого DOGE и администрация Трампа подавили надзор за предвзятостями в корпоративных моделях ИИ и случаях манипулирования системными подсказками. После прекращения DOGE финансирования исследований предвзятости ИИ новый законопроект, принятый Конгрессом, запретит любые новые законы, касающиеся надзора за ИИ, на следующие десять лет.
Недобросовестные Сотрудники
Уход Маска из DOGE оставляет после себя наследие, закрепленное выбором Palantir, основанной Тилем компании AI, выбранной Маском. Маск и Тиль были соучредителями Paypal, и Тиль выражал скептицизм относительно совместимости свободы и демократии.
Концентрация власти, инициированная Маском через DOGE, сохранится, действуя более незаметно. Хотя его уход знаменует собой победу для тех, кто выступал против него, работа DOGE продолжается под руководством бюрократов, нанятых за их лояльность.
Истинная цель DOGE заключалась не в устранении правительственных отходов, а в автоматизации бюрократии с меньшим количеством мер ответственности. Эта цель «правительственной эффективности» остается плохо определенной. Упрощение работы правительства должно упростить взаимодействие граждан со службами и информацией. Вместо этого увольнения создали системные заторы, одновременно ставя под угрозу конфиденциальность. Сокращение финансирования IRS вызвало опасения по поводу проверок и возмещений, что может привести к потере миллиардов доходов.
Целью DOGE было не оптимизировать бюрократию, а устранить человеческий элемент. Он отдает приоритет эффективности в промышленном стиле, классифицируя граждан и предполагая системные злоупотребления. Права и привилегии затем предоставляются или отклоняются на основе предубеждений, встроенных в систему ИИ.
Те, кто контролирует определение и автоматизацию ответов на эти категории, обладают значительной властью. Модели отражают решения тех, кто их обучает, включая допустимые предубеждения и цели оптимизации. С нынешними администраторами, использующими алгоритмические следы, бюрократия теряет свою последнюю связь с человечеством.
Административные Ошибки
Бюрократия и бюрократические ошибки не новы. Беспрецедентным является отрыв человеческой ответственности за ошибки, способствующий безразличию к их предотвращению.
Рассмотрим отчет о состоянии здоровья Роберта Ф. Кеннеди-младшего, который содержал сфабрикованные цитаты. Этот акт был бы скандалом исторически, но он был отклонен как «ошибка форматирования». Кеннеди поддерживает политику, не подкрепленную доказательствами, и AI-генерация этого отчета предполагает приоритет представления над законным научным исследованием. Автоматизация сфабрикованных доказательств - это лишь один из способов, которым AI стал инструментом для администрации.
DOGE, кажется, больше сосредоточен на наказании оппозиции Трампу - мигрантов, ученых, расовых меньшинств - и его широкомасштабные усилия порождают неизбежные ошибки. Депортация Кильмара Абрего Гарсиа, приписываемая «административной ошибке»,exemplifies this. Это exemplifies intentional weaponization of error.
В конечном счете, DOGE стремится создать систему, в которой спорные результаты можно свалить на «административные», «программные» или «ошибки форматирования». Администрация перекладывает вину на неисправные инструменты, отказываясь брать на себя ответственность. В случае Гарсии администрация отказывается исправлять ошибку. Это демонстрирует мир ненадежного порядка, где пощадят только тех, кто клянется в верности.
Мы создаем хрупкую среду, где персонализированные судьбы зависят от прихотей ИИ и его невидимого программирования. Что произойдет, когда эти программы ИИ станут дестабилизирующими инструментами, которые объединяют данные в унифицированные архитектуры наблюдения?
В то время как уход Маска из DOGE может побудить общественное внимание ослабнуть, основные проблемы остаются: алгоритмическая предвзятость, отсутствие ответственности и эрозия человеческого надзора. Эти тенденции, если их не контролировать, могут повредить сами основы справедливого и равноправного общества.