Напускането на Илон Мъск от инициативата Defense Operational Guidance Enhancement (DOGE) може да изглежда като значимо събитие, но истинското му въздействие се крие в степента, до която обществеността остава бдителна. Истинската история не е просто за съкращения на бюджета или театралните представления на Мъск; става въпрос за коварната интеграция на идеологически проекти в техническите системи, които управляват правителството на САЩ.
През февруари очертах концепцията за "AI преврат", където изкуственият интелект функционира по-малко като инструмент и повече като спектакъл и оправдание. Големи езикови модели (LLMs) служат като генератори на претекст, осигурявайки удобно прикритие за действия, за които никой не желае да поеме отговорност. Илон Мъск изигра подобна роля, разсейвайки обществеността със сензационни демонстрации, докато извършваше радикални промени.
Един от най-фрапиращите примери беше отпускането на средства за програма, която беше предотвратила 26 милиона смъртни случая от СПИН, включително деца. Избрани длъжностни лица до голяма степен игнорираха проблема, преструвайки се на безпомощност.
Противоречивите действия на Мъск послужиха като удобно димна завеса за радикалното разглобяване на федералното правителство. Докато това предизвика протестно движение на низово ниво и повлия негативно на продажбите на Tesla, то маскира по-дълбокия проблем за интеграцията на AI.
Въпреки че Мъск и Тръмп насърчиха идеологически обусловените съкращения на бюджета на DOGE, анализ в The Atlantic разкри, че общите федерални разходи всъщност са се увеличили. AI трансформацията на федералната работна сила, рекламирана като средство за "правителствена ефективност", продължава до голяма степен незабелязано. DOGE използва Llama 2, за да преглежда и класифицира имейли от федерални служители, но договорът на Palantir за 113 милиона долара за създаване на огромна гражданска инфраструктура за наблюдение подчертава тревожна тенденция. Компанията също така интегрира езиковия модел Grok на Мъск в своята платформа.
Програмни грешки
Grok на xAI, под директния контрол на Мъск, дава тревожен пример. Моделът отговори на безобидни заявки с коментари, популяризиращи реалността на белия геноцид в Южна Африка. Тази манипулация на скритата системна подкана на модела разкрива тромав опит за социално инженерство. По-късно беше установено, че моделът се занимава с отричане на Холокоста, което xAI приписа на "програмна грешка".
xAI отговори на инцидента с "белия геноцид", като заяви, че модификацията на подканата е нарушила вътрешните политики. Те добавиха, че бъдещите промени в системната подкана ще бъдат предмет на преглед.
Тези инциденти подчертават присъщите рискове от системните подкани. Те могат да бъдат променени от всеки, който има контрол над модела, и подлежат на проверка едва след откриване. Разчитането на корпоративни AI модели при вземането на решения от правителството предоставя огромна политическа власт на технологичните елити.
Обикновено приемането на технологии в правителството включва внимателно обсъждане и проверки за сигурност. На внедряването на DOGE липсва подходящ надзор, което поражда опасения относно независимостта на всички прегледи. Чрез интегриране на данни от агенции в единен модел, DOGE не успява да вземе предвид специфичните нужди за сигурност на отделните агенции. По същество DOGE прилага трансформативни промени, без да оценява тяхната необходимост, достатъчност или полза за гражданите.
Ако администрацията на Тръмп наистина се интересуваше от изграждането на надеждни системи, действията им биха отразили това. Вместо това, DOGE и администрацията на Тръмп потиснаха надзора върху пристрастията в корпоративните AI модели и случаите на манипулация на системната подкана. След като DOGE лиши от финансиране изследванията за AI пристрастия, нов законопроект, приет от Конгреса, ще забрани всякакви нови закони относно надзора на AI през следващото десетилетие.
Незаконни служители
Напускането на Мъск от DOGE оставя след себе си наследство, циментирано от избора на Palantir, компанията за изкуствен интелект, основана от Тийл, избрана от Мъск. Мъск и Тийл бяха съоснователи на Paypal, а Тийл изрази скептицизъм относно съвместимостта на свободата и демокрацията.
Концентрацията на власт, инициирана от Мъск чрез DOGE, ще продължи да съществува, действайки по-дискретно. Докато напускането му бележи победа за онези, които се противопоставиха на него, работата на DOGE продължава под ръководството на бюрократи, наети заради тяхната лоялност.
Истинската цел на DOGE никога не е била да елиминира правителствените отпадъци, а да автоматизира бюрокрацията с по-малко мерки за отчетност. Тази цел за "правителствена ефективност" остава слабо дефинирана. Оптимизирането на правителството трябва да опрости взаимодействието на гражданите с услуги и информация. Вместо това, съкращенията доведоха до системни задръствания, като същевременно компрометираха поверителността. Съкращенията във финансирането на IRS предизвикаха опасения относно одитите и възстановяванията, което потенциално струва милиарди загубени приходи.
Целта на DOGE не беше да оптимизира бюрокрацията, а да елиминира човешкия елемент. Той дава приоритет на индустриалния стил на ефективност, категоризира citizens и предполага системна злоупотреба. След това правата и привилегиите се предоставят или отказват въз основа на пристрастията, вградени в AI системата.
Онези, които контролират дефиницията и автоматизацията на отговорите на тези категории, притежават значителна власт. Моделите отразяват решенията на онези, които ги обучават, включително толерирани пристрастия и цели за оптимизация. С настоящите администратори, използващи алгоритмични следи, бюрокрацията губи последната си връзка с човечеството.
Административни грешки
Бюрокрацията и бюрократичните грешки не са нещо ново. Това, което е безпрецедентно, е прекъсването на човешката отчетност за грешки, насърчавайки безразличие към избягването им.
Помислете за здравния доклад на Робърт Ф. Кенеди-младши, който съдържаше фалшифицирани цитати. Този акт би бил скандал исторически, но беше отхвърлен като "грешка при форматирането". Кенеди приема политики, неподкрепени от доказателства, а генерирането на този доклад от AI предполага приоритизиране на представянето пред легитимни научни изследвания. Автоматизацията на фалшифицирани доказателства е само един от начините, по които AI се превърна в инструмент за администрацията.
DOGE изглежда по-фокусиран върху наказването на опозицията на Тръмп - мигранти, академици, расови малцинства - и неговите широкообхватни усилия генерират неизбежни грешки. Депортирането на Килмар Абрего Гарсия, приписано на "административна грешка", е пример за това. Това е пример за умишлено превръщане на грешката в оръжие.
В крайна сметка, DOGE има за цел да създаде система, където противоречивите резултати могат да бъдат обвинявани за "административни", "програмни" или "грешки при форматирането". Администрацията прехвърля вината върху дефектни инструменти, отказвайки да поеме отговорност. В случая на Гарсия, администрацията отказва да поправи грешката. Това демонстрира свят на ненадежден ред, където само онези, които се кълнат във вярност, ще бъдат пощадени.
Ние създаваме крехка среда, където персонализираните съдби зависят от прищявките на AI и неговото невидимо програмиране. Какво се случва, когато тези AI програми са дестабилизиращи инструменти, които консолидират данни в унифицирани архитектури за наблюдение?
Докато напускането на Мъск от DOGE може да предизвика отслабване на общественото внимание, основните проблеми остават: алгоритмични пристрастия, липса на отчетност и ерозия на човешкия надзор. Тези тенденции, ако бъдат оставени без контрол, имат потенциала да увредят самите основи на едно справедливо и равноправно общество.