Навигиране в регулаторния лабиринт: Призив за единство (и предимство)
Обща нишка, преминаваща през предложенията на няколко големи ИИ фирми, е осезаемата загриженост относно нарастващата смесица от щатски регулации за ИИ. OpenAI, създателят на ChatGPT, изрично призова за спасение от това, което възприема като предстоящ потоп от над 700 различни законопроекта, които в момента циркулират на щатско ниво. Предложеното от OpenAI решение обаче не е федерално законодателство, а тясна, доброволна рамка. Тази рамка, което е от решаващо значение, би изпреварила щатските разпоредби, предлагайки на ИИ компаниите един вид безопасно пристанище. В замяна на тази защита компаниите биха получили достъп до доходоносни държавни поръчки и биха получавали предварителни предупреждения за потенциални заплахи за сигурността. Правителството, от своя страна, ще бъде упълномощено да тества възможностите на новите модели и да ги сравнява с чуждестранните им аналози.
Google повтаря това мнение, като се застъпва за изпреварване на щатските закони с “унифицирана национална рамка за гранични ИИ модели”. Тази рамка, според Google, трябва да даде приоритет на националната сигурност, като същевременно насърчава среда, благоприятна за американските ИИ иновации. За разлика от OpenAI обаче, Google не се противопоставя по принцип на федералното регулиране на ИИ, при условие че то се фокусира върху конкретни приложения на технологията. Ключова уговорка за Google е, че разработчиците на ИИ не трябва да носят отговорност за злоупотребата с техните инструменти от други. Google също така използва възможността да настоява за нова федерална политика за поверителност, твърдейки, че тя засяга ИИ индустрията.
Отвъд вътрешното регулиране, Google призовава администрацията на САЩ да се ангажира активно с други правителства по отношение на законодателството за ИИ. Компанията изрично предупреждава срещу закони, които биха могли да принудят компаниите да разкриват търговски тайни. Тя предвижда международна норма, при която само правителството на държавата на произход на дадена компания ще има правомощията да извършва задълбочени оценки на нейните ИИ модели.
Предизвикателството Китай: Контрол върху износа и стратегическа конкуренция
Призракът на бързия напредък на Китай в областта на ИИ се очертава силно в предложенията на всички основни играчи. Правилото за “разпространение на ИИ”, въведено от администрацията на Байдън през януари 2024 г. за ограничаване на достъпа на Китай до напреднали американски технологии, се превърна във фокусна точка на дебата. Докато всички компании признаха съществуването на правилото, предложените от тях модификации разкриват коренно различни подходи.
OpenAI предлага стратегия на “търговска дипломация”. Тя предлага разширяване на най-високото ниво на правилото, което понастоящем позволява неограничен внос на американски ИИ чипове, за да включва повече държави. Условието? Тези страни трябва да се ангажират с “демократични принципи на ИИ”, като внедряват ИИ системи по начини, които “насърчават повече свободи за техните граждани”. Този подход се стреми да използва технологичното лидерство на САЩ, за да стимулира приемането на съобразено с ценностите управление на ИИ в световен мащаб.
Microsoft споделя желанието на OpenAI да разшири най-високото ниво на правилото за дифузия. Microsoft обаче подчертава и необходимостта от засилено прилагане. Компанията призовава за увеличени ресурси за Министерството на търговията, за да се гарантира, че най-съвременните ИИ чипове се изнасят и внедряват само в центрове за данни, сертифицирани като надеждни и сигурни от правителството на САЩ. Тази мярка има за цел да попречи на китайските компании да заобикалят ограниченията чрез достъп до мощни ИИ чипове чрез нарастващ “сив пазар” на по-малки, по-малко контролирани доставчици на центрове за данни в Азия и Близкия изток.
Anthropic, разработчикът на ИИ модела Claude, се застъпва за още по-строг контрол върху страните във второто ниво на правилото за разпространение на ИИ, като изрично ограничава достъпа им до чиповете H100 на Nvidia. Освен това Anthropic призовава САЩ да разширят контрола върху износа, за да обхванат и чиповете H20 на Nvidia, които са специално проектирани за китайския пазар, за да отговарят на съществуващите американски разпоредби. Това демонстрира по-ястребовата позиция на Anthropic по отношение на предотвратяването на придобиването от Китай на каквато и да е технология, която би могла да подсили неговите ИИ възможности.
Google, в подчертано отклонение от своите конкуренти, изразява открито противопоставяне на правилото за разпространение на ИИ. Макар да признава валидността на целите му за национална сигурност, Google твърди, че правилото налага “непропорционални тежести върху американските доставчици на облачни услуги”. Тази позиция отразява по-широките опасения на Google относно потенциала на регулациите да задушат иновациите и да възпрепятстват глобалната му конкурентоспособност.
Отвъд правилото за дифузия, OpenAI повишава залозите още повече, като предлага глобална забрана на чиповете на Huawei и китайските “модели, които нарушават поверителността на потребителите и създават рискове за сигурността, като например риска от кражба на интелектуална собственост”. Това също се тълкува широко като удар срещу DeepSeek.
Авторско право и горивото на ИИ: Навигиране в интелектуалната собственост
Трънливият въпрос за авторското право, особено в контекста на обучението на ИИ модели, също получава значително внимание. OpenAI, в ясен упрек към европейския Закон за ИИ, критикува разпоредбата, която дава на носителите на права възможността да се откажат от използването на техните произведения за обучение на ИИ. OpenAI призовава администрацията на САЩ да “предотврати по-малко иновативните държави да налагат своите правни режими на американските ИИ фирми и да забавят темповете ни на напредък”. Тази позиция отразява убеждението на OpenAI, че неограниченият достъп до данни е от решаващо значение за поддържане на конкурентното предимство на САЩ в областта на ИИ.
Google, от друга страна, призовава за “балансирани закони за авторското право”, както и за закони за поверителност, които автоматично предоставят освобождаване за публично достъпна информация. Това предполага по-нюансиран подход, признаващ правата на създателите, като същевременно признава значението на данните за развитието на ИИ. Google също така предлага преглед на “ИИ патенти, предоставени по погрешка”, подчертавайки нарастващия брой американски ИИ патенти, придобити от китайски компании.
Захранване на бъдещето: Инфраструктура и енергийни нужди
Огромната изчислителна мощност, необходима за обучението и експлоатацията на усъвършенствани ИИ модели, налага значително разширяване на инфраструктурата и енергийните ресурси. OpenAI, Anthropic и Google се застъпват за рационализиране на процеса на издаване на разрешителни за преносни линии, като целят да ускорят изграждането на енергийна инфраструктура в подкрепа на нови ИИ центрове за данни.
Anthropic заема особено смела позиция, призовавайки за допълнителни 50 гигавата енергия в САЩ, изключително за използване на ИИ, до 2027 г. Това подчертава огромните енергийни нужди на бързо развиващия се ИИ пейзаж и потенциала на ИИ да се превърне в основен двигател на потреблението на енергия.
Сигурност, приемане от правителството и държавата, задвижвана от ИИ
Предложенията също така засягат пресечната точка на ИИ, националната сигурност и правителствените операции. OpenAI предлага ускоряване на одобренията за киберсигурност за най-добрите ИИ инструменти, което ще позволи на правителствените агенции да ги тестват и внедряват по-лесно. Компанията също така предлага публично-частни партньорства за разработване на ИИ модели, фокусирани върху националната сигурност, които може да нямат жизнеспособен търговски пазар, като например модели, предназначени за класифицирани ядрени задачи.
Anthropic повтаря призива за по-бързи процедури за възлагане на обществени поръчки за интегриране на ИИ в правителствените функции. Трябва да се отбележи, че Anthropic също така подчертава значението на надеждните роли за оценка на сигурността за Националния институт за стандарти и технологии (NIST) и Американския институт за безопасност на ИИ.
Google твърди, че агенциите за национална сигурност трябва да имат право да използват търговски ресурси за съхранение и изчисления за своите ИИ нужди. Компанията също така се застъпва за това правителството да предостави своите набори от данни за търговско обучение на ИИ и да наложи отворени стандарти за данни и API в различните правителствени облачни внедрявания, за да улесни “прозрения, задвижвани от ИИ”.
Социалното въздействие: Пазари на труда и трансформацията, задвижвана от ИИ
И накрая, предложенията засягат по-широките социални последици от ИИ, особено потенциалното му въздействие върху пазарите на труда. Anthropic призовава администрацията да следи отблизо тенденциите на пазара на труда и да се подготви за значителни сътресения. Google също така признава, че предстоят промени, като подчертава необходимостта от по-широко развитие на ИИ умения. Google също така иска увеличено финансиране за изследвания в областта на ИИ и политика, която да гарантира, че американските изследователи имат адекватен достъп до изчислителна мощност, данни и модели.
По същество, предложенията за “Плана за действие за ИИ” рисуват картина на индустрия включов момент. Макар и обединени в амбицията си да развиват ИИ технологията, водещите американски компании имат коренно различни възгледи за това как да се справят със сложните предизвикателства на регулирането, международната конкуренция и социалното въздействие. През следващите месеци и години ще стане ясно как тези различни визии ще оформят бъдещето на ИИ, не само в Съединените щати, но и в световен мащаб.