Llama 2 за съкращения, не Grok

Едно неочаквано разкритие показва, че строго проверяваните инициативи на Министерството на правителствената ефективност (Department of Government Efficiency) за рационализиране на федералната работна сила са използвали по-стар AI модел на Meta, по-специално Llama 2, а не собственото AI творение на Илон Мъск, Grok.

Меморандумът “Разклон на пътя” и ролята на Llama 2

Според преглед, проведен от Wired, филиали на DOGE на Илон Мъск, работещи в рамките на Службата за управление на персонала (Office of Personnel Management), са използвали модела Llama 2 на Meta за щателно анализиране и категоризиране на отговорите от федерални служители на противоречивото имейл съобщение “Разклон на пътя”, изпратено в цялото правителство в края на януари.

Меморандумът “Разклон на пътя”, поразително подобен на предишна комуникация, която Мъск беше изпратил на служителите на Twitter, представи на федералните работници избор: да демонстрират “лоялност”, като приемат преразгледаната политика на правителството за връщане в офиса, или да изберат да подадат оставка. По това време циркулираха слухове, че DOGE използва AI за обработка на данните на държавните служители. Оттогава се появи потвърждение, подкрепящо използването на Llama 2 за пресяване на отговорите на служителите и количествено определяне на броя на подадените оставки.

Противоречивото минало на Llama 2: Военни приложения и отговорът на Meta

Историята на Llama 2 не е без противоречия. По-специално, през ноември китайски изследователи използваха Llama 2 като основа за AI модел, използван от китайската армия. Това разкритие предизвика остра реакция, което подтикна Meta първоначално да осъди “неоторизираното” разчитане на изследователите един “единствен” и “остарял” модел. Въпреки това, Meta впоследствие обърна своите политики, забраняващи военни приложения, и разшири достъпа до своите AI модели за целите на националната сигурност на САЩ.

Meta публично декларира ангажимента си да направи Llama достъпна за правителствените агенции на САЩ, включително тези, участващи в отбраната и приложенията за национална сигурност, както и за партньорите от частния сектор, подкрепящи техните усилия. Те обявиха партньорства с фирми като Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI и Snowflake, за да улеснят внедряването на Llama в правителствените агенции.

Wired предполага, че отвореният код на моделите на Meta позволява на правителството лесно да ги използва в подкрепа на целите на Мъск, потенциално без изричното съгласие на компанията. Определянето на степента на внедряване на моделите на Meta в правителството остава предизвикателство. Обосновката зад разчитането на DOGE на Llama 2, особено предвид напредъка на Meta с Llama 3 и 4, е неясна.

Ограничено познаване на употребата на Llama 2 от DOGE

Подробностите относно конкретното приложение на Llama 2 от DOGE остават оскъдни. Разследването на Wired разкри, че DOGE е разположила модела локално, което предполага, че е малко вероятно данните да са били предавани по интернет, като по този начин се смекчават опасенията за поверителност, изразени от много държавни служители.

Конгресни опасения и призиви за разследване

В писмо от април, адресирано до Ръсел Воут, директор на Службата за управление и бюджет, над 40 законодатели поискаха щателно разследване на използването на AI от DOGE. Те изразиха опасения, че подобна употреба, наред с потенциалните рискове за сигурността, може да подкопае успешното и подходящо приемане на AI в правителството.

Писмото конкретно споменава служител на DOGE и бивш служител на SpaceX, който твърди, че е използвал модела xAI Grok-2 на Musk, за да разработи “AI асистент”. В него също така се споменава използването на чатбот, наречен “GSAi”, базиран на модели на Anthropic и Meta, за анализ на данни за договори и обществени поръчки. Освен това, DOGE е свързан със софтуер, наречен AutoRIF, за който се твърди, че е предназначен да ускори масовите уволнения в цялото правителство.

Законодателите подчертаха “сериозни опасения относно сигурността”, свързани с използването на DOGE на “AI системи за анализ на имейли от голяма част от федералната работна сила от два милиона души, описващи постиженията им от предходната седмица”, позовавайки се на липса на прозрачност.

Тези имейли последваха имейлите “Разклон на пътя”, подтиквайки работниците да очертаят седмичните постижения в пет точки. Служителите изразиха опасения относно естеството на отговорите, опасявайки се, че DOGE може да изисква чувствителна информация без подходящи разрешения за сигурност.

Wired не можа да потвърди окончателно дали Llama 2 е бил използван и за анализиране на тези имейл отговори. Федералните работници обаче предположиха пред Wired, че DOGE вероятно ще “използва повторно своя код” от експеримента с имейла “Разклон на пътя”, ако това е благоразумно решение.

Защо Grok не беше използван

Възниква въпросът: защо DOGE не използва Grok?

Вероятното обяснение е, че Grok, като проприетарен модел по това време, не беше наличен за задачата на DOGE през януари. Според Wired, DOGE може да увеличи разчитането си на Grok в бъдеще, особено като се има предвид съобщението на Microsoft, че ще започне да хоства моделите Grok 3 на xAI във фондацията Azure AI Foundry тази седмица, като по този начин ще разшири потенциалните приложения на модела.

Опасения на законодателите: конфликти на интереси и пробиви в данните

В писмото си законодателите призоваха Воут да разследва потенциални конфликти на интереси, включващи Мъск, като същевременно предупредиха за потенциални пробиви в данните. Те твърдяха, че AI, както се използва от DOGE, все още не е подходящ за правителствени приложения.

Те твърдят , че “без подходящи мерки за защита, подаването на чувствителни данни в AI система ги поставя във владение на оператора на системата – масивно нарушение на общественото доверие и доверието на служителите и увеличение на рисковете за киберсигурността около тези данни.” Те допълнително отбелязаха, че “генеративните AI модели също често правят грешки и показват значителни пристрастия – технологията просто не е готова за използване при вземане на решения с висок риск без подходяща проверка, прозрачност, надзор и предпазни мерки.”

Въпреки че докладът на Wired предполага, че DOGE не е предал чувствителни данни от имейлите “Разклон на пътя” на външен източник, законодателите се застъпват за по-стабилна проверка на AI системите, за да се смекчи “риска от споделяне на лична информация или друга чувствителна информация с разпространителите на AI модела.”

Преобладаваща загриженост е, че Мъск може все повече да използва собствените си модели, потенциално облагодетелствайки се от правителствени данни, недостъпни за неговите конкуренти, като същевременно излага тези данни на рискове от пробив. Законодателите се надяват, че DOGE ще бъде принуден да прекрати AI системите си. Въпреки това, Воут изглежда по-приведен в съответствие с подхода на DOGE, както се вижда от неговите насоки за AI за федерална употреба, което насърчава агенциите да “премахнат бариерите пред иновациите и да осигурят най-добрата стойност за данъкоплатците.”

Писмото на законодателите подчертава, че “макар да подкрепяме федералното правителство да интегрира нови, одобрени AI технологии, които могат да подобрят ефективността или ефикасността, не можем да жертваме сигурността, поверителността и подходящите стандарти за използване, когато взаимодействаме с федерални данни.” Те също така заявяват, че “също така не можем да позволим използването на AI системи, често известни с халюцинации и пристрастия, при вземане на решения относно прекратяване на федерална работа или федерално финансиране без достатъчна прозрачност и надзор на тези модели – рискът от загуба на талант и критично изследване поради дефектна технология или дефектни употреби на такава технология е просто твърде висок.”

Задълбочен анализ на последиците от използването на AI в инициативите за правителствена ефективност

Разгръщащата се сага за използването на изкуствен интелект от Министерството на правителствената ефективност (DOGE) в неговите усилия за рационализиране на дейността предизвика буря от дебати и проверки. Разкритието, че агенцията се е облегнала на Llama 2 на Meta – AI с отворен код – вместо на собствения Grok AI на Илон Мъск, добави слой сложност към едно вече заплетено повествование. Тази ситуация налага задълбочен анализ на многостранните последици от интегрирането на AI в правителствените операции, разглеждайки присъщите ползи и рискове, етичните съображения и потенциала за конфликти на интереси.

Примамливостта и клопките на AI в правителството

Интегрирането на AI в правителствените функции обещава трансформиращи подобрения в ефективността, анализа на данни и вземането на решения. От автоматизирането на рутинни задачи до пресяването през огромни набори от данни, AI има потенциала да отключи безпрецедентни нива на производителност и да подобри предоставянето на обществени услуги. Представете си алгоритми, които могат да предвидят откази на инфраструктурата, да персонализират образованието или да оптимизират разпределението на ресурсите при усилия за подпомагане при бедствия. Възможностите са на пръв поглед безкрайни.

Въпреки това, тази технологична революция не е без своите опасности. Разчитането на AI системи въвежда сложна мрежа от етични дилеми, уязвимости в сигурността и потенциални пристрастия. AI моделите са обучени върху данни и ако тези данни отразяват обществените предразсъдъци, AI ще увековечи и дори ще засили тези пристрастия. Това представлява значителна заплаха за справедливостта и равенството в правителствените услуги, потенциално водеща до дискриминационни резултати в области като правоприлагането, социалното подпомагане и образованието.

Освен това, използването на AI повдига дълбоки въпроси относно прозрачността и отчетността. Когато решенията се вземат от алгоритми, става предизвикателство да се разбере обосновката зад тези решения, което затруднява държавните агенции да носят отговорност за своите действия.

Llama 2 срещу Grok Conundrum

Изборът на Llama 2 пред Grok носи свой собствен набор от съображения. Отворената природа на Llama 2 го прави лесно достъпен и адаптивен, позволявайки на правителствените агенции да го адаптират към своите специфични нужди, без да бъдат заключени в проприетарна екосистема. Това обаче означава също, че му липсва специализираната поддръжка и поддръжка, които обикновено идват с проприетарните AI решения.

От друга страна, Grok, като проприетарен AI, предлага обещанието за авангардна производителност и специализиран опит. Той обаче повдига и опасения относно потенциалното заключване към доставчика, поверителността на данните и пристрастията, произтичащи от данните за обучение на AI. Той подчертава опасенията относно потенциала на всяка частна организация, особено тази, свързана с видна фигура, тясно свързана с целите на правителството, да упражнява неправомерно влияние върху процесите на вземане на решения.

Спектърът на конфликти на интереси

Участието на организациите на Илон Мъск (SpaceX и xAI) в правителствени AI инициативи повдига спектъра на конфликти на интереси. Като видна фигура с лични интереси в различни сектори, участието на Мъск повдига въпроси относно потенциалното влияние, което той може да упражни върху правителствената политика и възлагането на договори.

Дали правителството би дало преференциално третиране на компаниите на Мъск? Има ли адекватни предпазни мерки, които да гарантират, че решенията се вземат безпристрастно и в най-добрия интерес на обществото? Това са легитимни въпроси, които изискват стриктна проверка.

Опасения за сигурността и поверителността на данните

Използването на AI в правителствените операции неизбежно включва събиране, съхранение и обработка на чувствителни данни за гражданите. Това създава изкусителна цел за кибератаки и пробиви в данните. Правителството трябва да приложи стабилни мерки за сигурност, за да защити тези данни от неоторизиран достъп и злоупотреба. Това обхваща не само защитата на данните от външни заплахи, но и установяването на строги контроли за достъп и механизми за отчетност, за да се предотврати злоупотреба отвътре.

Опасенията относно поверителността на данните са засилени от непрозрачния характер на AI алгоритмите. Гражданите често нямат представа как техните данни се обработват или използват, за да се вземат решения, които засягат живота им. Тази липса на прозрачност подкопава доверието в правителството и може да доведе до съпротива срещу AI-движените инициативи.

Последиците за бъдещето на правителството

Дебатът за използването на AI от DOGE не е само за конкретен случай, а за по-широкото бъдеще на правителството в ерата на изкуствения интелект. Как може правителството да използва силата на AI, за да подобри обществените услуги, като същевременно смекчи рисковете? Как можем да гарантираме, че AI се използва етично, прозрачно и отчетно?

Отговорите на тези въпроси изискват многостранен подход:

  • Установете ясни етични насоки: Кодифицирайте ясен набор от етични принципи, които да ръководят използването на AI в правителството. Тези принципи трябва да дават приоритет на справедливостта, прозрачността, отчетността и уважението към поверителността.

  • Насърчавайте прозрачността и отвореността: Направете AI алгоритмите и процесите на вземане на решения по-прозрачни. Публикувайте доклади, описващи как AI се използва в правителството, и предоставете възможности на гражданите да предоставят обратна информация.

  • Защитете сигурността на данните: Приложете стабилни мерки за сигурност, за да защитите чувствителните данни за гражданите от киберзаплахи и злоупотреби отвътре.

  • Осигурете отчетност: Установете ясни линии на отчетност за AI-движените решения. Определете правителствени служители, които са отговорни за надзора на използването на AI и за разрешаването на възникнали проблеми.

  • Култивирайте обществено доверие: Обучете обществеността за ползите и рисковете от AI в правителството. Ангажирайте се с гражданите, за да обсъдите техните опасения и да изградите доверие в отговорното използване на тази технология.

Като възприеме активно и обмислено решение, правителството може да използва трансформиращата сила на AI, като същевременно защитава обществения интерес. Полемиката около DOGE служи като ценно напомняне за важността на внимателното планиране, открития диалог и ангажимента към етичните принципи в ерата на изкуствения интелект.

Разгръщащият се разказ

Драмата около използването на AI от DOGE далеч не е завършила. Тъй като разследванията продължават и се появяват повече подробности, инцидентът несъмнено ще има последици за бъдещето на разполагането на AI в правителството. Надяваме се, че тази ситуация ще доведе до по-внимателно интегриране на технологиите.