Появата на сложни модели на изкуствен интелект като R1 на DeepSeek предизвика вълнение в технологичния пейзаж на Запада, подтиквайки към необходима интроспекция относно стратегиите за развитие на ИИ, особено около често конкуриращите се изисквания за рентабилност и авангардни възможности. Последствията обаче се простират далеч отвъд обикновените технически показатели или икономическа ефективност. Траекторията, подчертана от DeepSeek, налага по-дълбоко и спешно обмисляне: Какво означава възходът на специфични видове ИИ, особено тези, подкрепяни от недемократични държави, за бъдещото здраве и принципи на самата демокрация в ера, все по-оформена от алгоритми?
В основата на това предизвикателство лежи концепцията за ИИ с отворен код (open-source AI). Това се отнася до системи с ИИ, при които основните компоненти – вариращи от основния код до наборите от данни, използвани за обучение – са публично достъпни. Тази прозрачност позволява на потребителите не само да използват инструментите, но и да изучават вътрешната им работа, да ги модифицират за специфични цели и да споделят своите иновации. Докато точната дефиниция на ‘отворен код’ в контекста на сложни модели на ИИ все още се обсъжда, потенциалът му е огромен. Той обещава да демократизира развитието на ИИ, насърчавайки жизнена екосистема, където разработчиците могат да си сътрудничат и да надграждат работата си. Този дух на сътрудничество може да даде възможност на отделни лица, изследователи и общности да приспособяват решения с ИИ за критични сектори като образование, здравеопазване и финансови услуги, потенциално отключвайки значителни иновации и ускорявайки икономическия прогрес навсякъде.
И все пак, този обещаващ технологичен път носи присъщи сложности и рискове, особено по отношение на неговото управление и основни ценности. Доклади около модела DeepSeek R1, например, предполагат, че той може да включва механизми, които цензурират или избирателно задържат информация от потребителите. Този единичен пример подчертава по-голяма опасност: демократичните нации не рискуват просто да изостанат в технологичната надпревара за по-добри резултати на ИИ. Те са изправени пред също толкова критичната опасност да отстъпят позиции в решаващата битка за оформяне на управлението на ИИ, потенциално позволявайки на системи, вградени с авторитарни принципи, да се разпространяват в световен мащаб, засенчвайки тези, предназначени да поддържат демократични норми като свобода на изразяване и достъп до информация.
Следователно, настоящият момент изисква проактивен и координиран отговор. Наложително е Съединените щати да изградят силно партньорство със своите демократични съюзници, като Европейският съюз е особено важен сътрудник, за да установят глобални стандарти и най-добри практики специално за ИИ с отворен код. Използвайки съществуващите си законодателни рамки и значително пазарно влияние, тези трансатлантически партньори трябва да оглавят създаването на стабилна структура за управление на тази процъфтяваща област. Критична първа стъпка включва официално обединяване около функционална дефиниция на ИИ с отворен код, за да се гарантира регулаторна яснота и ефективност. След това е необходимо съгласувано ускоряване на усилията, за да се гарантира, че демократичните ценности – прозрачност, справедливост, отчетност и зачитане на основните права – са дълбоко вградени в моделите на ИИ с отворен код, които се разработват и насърчават. Такъв стратегически тласък е от съществено значение, за да се проправи пътят към бъдеще на ИИ, което е наистина отворено, прозрачно и овластяващо за всички, а не такова, което е фино оформено от автократичен контрол.
Калкулираното приемане на отвореността от Китай
Разбирането на настоящата динамика изисква оценяване на стратегическите маневри на Китай в областта на ИИ. Част от забележителния успех на DeepSeek не е само техническата мощ; той съответства на все по-ясни сигнали от Китайската комунистическа партия (CCP), показващи намерение за интегриране на нормотворчеството на ИИ с отворен код директно в нейната правна и политическа архитектура. Значителен индикатор дойде през април 2024 г. с проекта на Моделен закон за ИИ (Model AI Law). Този документ изрично артикулира подкрепата на Пекин за култивиране на местна екосистема за ИИ с отворен код.
Член 19 от този проект на закон прогласява, че държавата ‘насърчава изграждането на екосистемата с отворен код’ и активно ‘подкрепя съответните субекти в изграждането или оперирането на платформи с отворен код, общности с отворен код и проекти с отворен код’. Той отива по-далеч, насърчавайки компаниите да правят ‘софтуерния изходен код, хардуерните дизайни и приложните услуги публично достъпни’, привидно за да насърчат споделянето в цялата индустрия и съвместните иновации. Може би най-показателно е, че проектът предлага намаляване или дори премахване на правната отговорност за субекти, предоставящи модели на ИИ с отворен код, при условие че установят системи за управление, съответстващи на ‘националните стандарти’и прилагат ‘съответните мерки за безопасност’. Това представлява потенциално значителна промяна спрямо предишното законодателство, свързано с ИИ в Китай, което често подчертаваше по-изрично защитата на правата на потребителите. Макар все още да е проект, специфичните разпоредби в Моделния закон за ИИ предлагат ценен план, разкриващ как Китай предвижда да разгърне ИИ с отворен код в страната и, което е от решаващо значение, какви характеристики могат да притежават неговите изнасяни модели на ИИ.
Допълнително подсилваща тази стратегическа посока е Рамката за управление на безопасността на ИИ (AI Safety Governance Framework), документ, който Китай възнамерява да използва в международен план, за да ‘насърчи международното сътрудничество по управлението на безопасността на ИИ на глобално ниво’. Тази рамка отразява нарастващата увереност на нацията по отношение на ИИ с отворен код. Изготвена от Китайския национален технически комитет 260 по киберсигурност – орган, тясно свързан с мощната Киберпространствена администрация на Китай (Cyberspace Administration of China), чиито насоки за киберсигурност бяха официално приети от CCP през септември 2024 г. – рамката заявява недвусмислено: „Трябва да насърчаваме споделянето на знания в областта на ИИ, да правим технологиите с ИИ достъпни за обществеността при условия на отворен код и съвместно да разработваме чипове, рамки и софтуер за ИИ.“ Включването на такова силно изявление в документ, насочен към глобална аудитория, ясно сигнализира амбицията на Китай не само да участва в движението за ИИ с отворен код, но и да се позиционира като водещ застъпник и нормотворец в тази критична технологична сфера. Това калкулирано приемане на ‘отвореността’ обаче оперира в ясно контролирана среда, целяща да впрегне иновативната сила на отворения код, като същевременно поддържа съответствие с държавните цели.
Колебанието на Америка: Защита пред посока
От другата страна на Тихия океан, наративът около ИИ с отворен код в Съединените щати представлява изследване на контрасти. От известно време застъпници в технологичната индустрия и академичните среди защитават значителните ползи от подходите с отворен код. Видни фигури от индустрията публично призоваха правителството на САЩ да постави по-голям стратегически акцент върху насърчаването на развитието на ИИ с отворен код. Забележителен пример е пускането на модела с отворен код Llama 3.1 от Mark Zuckerberg, придружено от твърдението му, че отвореният код ‘представлява най-добрият шанс на света’ за създаване на широко разпространени ‘икономически възможности и сигурност за всички’.
Въпреки това гласно застъпничество от влиятелни среди, Съединените щати очевидно не успяха да установят значима законодателна рамка, специално предназначена да насърчава или ръководи развитието на ИИ с отворен код. Докато американски сенатор внесе законопроект през 2023 г., целящ изграждането на рамка за сигурност на софтуера с отворен код, това законодателство остана без значим напредък. Федералните агенции засегнаха въпроса, но често с предпазлива или реактивна позиция. Миналата година Националната администрация по телекомуникации и информация (NTIA) публикува доклад, разглеждащ основни модели на ИИ с двойна употреба с ‘отворени тегла’ (‘open weights’). Важно е да се отбележи, че ‘отворени тегла’ обикновено означава, че параметрите на модела са достъпни за използване, но това не отговаря непременно на пълните критерии за истински отворен код (което често включва достъп до данни за обучение и код). Докладът на NTIA посъветва правителството да засили мониторинга си върху потенциалните рискове, свързани с тези модели с отворени тегла, за да определи по-добре подходящите ограничения. Впоследствие окончателната регулаторна рамка за ИИ на администрацията на Biden зае малко по-снизходителна позиция към отворените модели, като постави по-строги изисквания за най-мощните модели със затворени тегла (‘closed-weight’), докато до голяма степен изключи моделите с отворени тегла от тези специфични ограничения.
Въпреки това, ясна, проактивна национална стратегия за защита на демократичния ИИ с отворен код остава неясна. Бъдещата посока при потенциални промени в ръководството добавя още един слой несигурност. Бившият президент Donald Trump не е артикулирал конкретна политика или насоки относно ИИ с отворен код. Докато той отмени първоначалната изпълнителна заповед за ИИ на президента Biden, издадената заместваща заповед не очерта никакви конкретни инициативи, посветени на насърчаването или насочването на развитието на ИИ с отворен код.
Като цяло, американският подход изглежда предимно отбранителен. Основният фокус изглежда е върху разработването на високоспособни, често патентовани, модели на ИИ, като същевременно се изразходват значителни усилия за предотвратяване на достъпа на противници, особено Китай, до напреднали полупроводникови технологии и възможности на ИИ. Тази отбранителна позиция, макар и разбираема от гледна точка на националната сигурност, рискува да пренебрегне решаващата офанзивна стратегия: активно култивиране и насърчаване на глобална екосистема от ИИ с отворен код, вкоренена в демократичните принципи. САЩ изглеждат заети с охраната на своите технологични крепости, потенциално пропускайки възможността да оформят по-широкия глобален пейзаж чрез проактивно разпространение на отворени, зачитащи правата алтернативи на ИИ.
Регулаторният парадокс на Европа: Сила и парализа
Европейският съюз, известен със своята твърда регулаторна позиция в дигиталната сфера, представлява различен вид предизвикателство по отношение на ИИ с отворен код. След знаковото прилагане на Общия регламент относно защитата на данните (GDPR), ЕС успешно се позиционира като глобален нормотворец за дигиталната икономика. Държави и мултинационални корпорации по света често привеждат своите практики в съответствие с рамките за съответствие на ЕС, тенденция, която се разпростира и в областта на изкуствения интелект с появата на всеобхватния Закон на ЕС за ИИ (EU AI Act). Този закон има за цел да установи базирани на риска регулации за системите с ИИ в целия Съюз.
Въпреки това, когато става въпрос за конкретно адресиране на ИИ с отворен код, внушителната регулаторна машина на ЕС изглежда изненадващо колеблива и усилията ѝ донякъде неразвити. Член 2 от Закона за ИИ съдържа кратко споменаване, предвиждащо определени изключения от регулация за модели на ИИ с отворен код. И все пак, практическото въздействие на това изключение изглеждаограничено, особено тъй като обикновено не се прилага за модели, внедрени за търговски цели. Този тесен обхват значително ограничава реалния му ефект върху процъфтяващия пейзаж на ИИ с отворен код.
Тази парадоксална ситуация – признаване на отворения код, докато не се успява активно да се насърчи – продължава и в други насоки на ЕС. Най-новият Кодекс за практика за ИИ с общо предназначение (General-Purpose AI Code of Practice), публикуван хипотетично през март 2025 г. за целите на тази дискусия, може да признае положителния принос на моделите с отворен код за разработването на безопасен, ориентиран към човека и надежден ИИ. Въпреки това, такива документи често нямат смислено разяснение или конкретни мерки, предназначени активно да насърчават разработването и широкото приемане на тези потенциално полезни модели на ИИ с отворен код. Дори в рамките на стратегически рамки като Компаса за конкурентоспособност на ЕС (EU Competitiveness Compass) – привидно предназначен да се справи с прекомерната регулация и да засили стратегическата конкурентоспособност в ключови области като ИИ – терминът ‘отворен код’ е забележимо отсъстващ или получава минимално внимание.
Този предпазлив, почти сдържан подход от Брюксел към пълното приемане и регулиране на ИИ с отворен код вероятно произтича от няколко фактора. Една значителна пречка е присъщата трудност при точното дефиниране на ИИ с отворен код. За разлика от традиционния софтуер с отворен код, който включва предимно изходен код, ИИ с отворен код обхваща сложни предварително обучени модели, огромни набори от данни и сложни архитектури. Липсата на универсално приета правна дефиниция, въпреки усилията на организации като Инициативата за отворен код (OSI), създава ниво на правна несигурност, с което регулаторни органи като Европейската комисия обикновено не се чувстват комфортно.
И все пак, основният двигател на тази относителна неактивност може да е по-дълбок. Самият успех на ЕС в установяването на широкообхватни регулаторни режими като GDPR може да накара Комисията да бъде предпазлива при създаването на широки изключения за технология, толкова мощна и бързо развиваща се като ИИ, особено когато нейният вариант с отворен код остава донякъде неясно дефиниран. Може да има страх, че твърде лесното приемане на ИИ с отворен код, без напълно установени предпазни мерки, може неволно да отслаби трудно извоюваното глобално регулаторно влияние на ЕС. Това представлява стратегически хазарт – приоритизиране на всеобхватния контрол пред потенциалното насърчаване на по-динамична, макар и по-малко предвидима, отворена иновационна екосистема – хазарт, който Брюксел досега показва малък апетит да предприеме решително. Тази регулаторна парализа оставя вакуум, който други с готовност запълват.
Променящият се геополитически пейзаж на ИИ
Сливането на стратегическия тласък на Китай към ИИ с отворен код и относителната колебливост на Съединените щати и Европейския съюз активно прекроява геополитическия терен на изкуствения интелект. Решителният стремеж на Китай към технологична самодостатъчност, кампания, която сега ясно включва консолидиране на стратегиите му около ИИ с отворен код, може отчасти да се разглежда като отговор на продължителния контролвърху износа от САЩ, насочен към напреднал компютърен хардуер и полупроводници, мерки, въведени поради американски опасения относно националната сигурност, икономическата конкурентоспособност и защитата на интелектуалната собственост, датиращи от няколко години. Контрамерките на Китай, включително приемането на отворения код, отразяват по-широката, засилваща се стратегическа конкуренция за технологично надмощие между двете световни сили. ЕС, междувременно, обикновено утвърждава своето влияние в тази надпревара не чрез пряка технологична конкуренция в същия мащаб, а чрез установяване на глобални норми, фокусирани върху защитата на основните права, неприкосновеността на личния живот и демократичните ценности като справедливост и алгоритмична отчетност – стандарти, които наистина са оформили политиките на големите световни технологични фирми.
Въпреки това, като агресивно се позиционира като лидер и застъпник за ИИ с отворен код, Китай умело превръща предизвикателството – ограничения достъп до определени западни технологии – в стратегическа възможност. Той ефективно изработва и предлага на пазара своя собствена различна версия на отвореността на ИИ на световната общност, особено на развиващите се страни, търсещи достъпни инструменти за ИИ. Появата на способни китайски модели като R1 на DeepSeek, заедно с предложения от други местни технологични гиганти като Alibaba, започва да променя глобалната динамика. Това потенциално намалява глобалния апетит за изключително затворени, патентовани модели на ИИ, особено ако отворените алтернативи изглеждат по-достъпни или рентабилни. DeepSeek, например, пусна по-малки, по-малко изчислително интензивни модели, подходящи за устройства с ограничена процесорна мощ. Платформи като Hugging Face, основен център за разработка на ИИ, според съобщенията са започнали да анализират и възпроизвеждат аспекти от методите за обучение на DeepSeek-R1, за да подобрят собствените си модели. Дори западни технологични гиганти като Microsoft, OpenAI и Meta все повече изследват техники като дестилация на модели (model distillation), която придоби известност отчасти поради разработките на DeepSeek.
Този развиващ се пейзаж разкрива как Китай проактивно напредва в глобалния разговор около отвореността на ИИ, принуждавайки Съединените щати за първи път да реагират и да се адаптират към този дискурс. Едновременно с това ЕС остава донякъде в състояние на правна и регулаторна инерция поотношение на отворения код. Тази асиметрия създава забележим дисбаланс на силите специално в решаващата област на управлението и разпространението на ИИ с отворен код.
От решаващо значение е, че версията на ИИ с отворен код, разпространявана от Китай, носи значителни опасения за демократичните общества. CCP изглежда стратегически прилага система с ‘две писти’: насърчаване на относителна отвореност и сътрудничество между разработчиците и фирмите за ИИ, за да стимулира иновациите, като същевременно вгражда контроли и ограничения в публично достъпните модели, за да ограничи потока на информация и свободата на изразяване. Тази ‘отвореност’ е силно обусловена от установените модели на технологичен контрол в Китай, често изискващи входовете и изходите на модела да съответстват на одобрените от държавата наративи, ценностите на CCP и да проектират положителен национален имидж. Дори в рамките на своята глобално ориентирана Рамка за управление на безопасността на ИИ, където китайските власти открито приемат принципите на отворения код, има показателен език за съдържанието, генерирано от ИИ, което представлява заплаха за ‘идеологическата сигурност’ – ясен сигнал за присъщите ограничения на CCP върху свободата на мисълта и словото.
Без стабилна, алтернативна рамка, основана на защитата на демократичните принципи и основните човешки права, светът рискува да стане свидетел на широкото възпроизвеждане и приемане на по-рестриктивното тълкуване на ИИ с отворен код от Китай. Авторитарни режими и потенциално дори недържавни участници в световен мащаб биха могли лесно да надграждат върху тези модели, позволявайки сложна цензура и наблюдение, докато подвеждащо твърдят, че просто насърчават технологичната достъпност. Следователно фокусирането единствено върху достигането на технологичните показатели на Китай е недостатъчно. Демокрациите трябва да отговорят стратегически, като поемат водеща роля в установяването и насърчаването на демократично управление за ерата на ИИ с отворен код.
Изковаване на трансатлантически път напред
Настоящата траектория изисква решителни действия и подновено сътрудничество между водещите световни демокрации. Съединените щати и Европейският съюз трябва сериозно да обмислят предприемането на стратегия за дипломация на отворения код. Това включва проактивно насърчаване на разработването и споделянето на способни, надеждни и зачитащи правата модели на ИИ по целия свят като противовес на авторитарните алтернативи. Централно място в това усилие заема създаването на единна рамка за управление на ИИ с отворен код, разработена съвместно от САЩ и ЕС.
За ефективно оформяне на демократично бъдеще на ИИ, създаването на специализирана трансатлантическа работна група по ИИ с отворен код е критична следваща стъпка. Тази група трябва да използва съществуващите структури, където е подходящо, като Глобалното партньорство за изкуствен интелект (GPAI), но трябва решаващо да гарантира активното участие и принос на водещи технологични компании, академични изследователи и експерти от гражданското общество от двете страни на Атлантика по време на процеса на разработване на рамката. Този приобщаващ подход е жизненоважен за изработването на стандарти, които са едновременно принципни и практични.
Второ, както Съединените щати, така и ЕС трябва да вложат осезаеми ресурси зад тази визия. Това означава стратегическо насочване на финансиране към академични институции, изследователски лаборатории и иновативни стартъпи, специално фокусирани върху разработването на модели на ИИ с отворен код, които изрично съответстват на демократичните ценности. Ключови характеристики на такива модели биха включвали:
- Прозрачност в дизайна и данните за обучение.
- Стабилни предпазни мерки срещу цензура и манипулация.
- Механизми за отчетност и смекчаване на пристрастията.
- Вградено зачитане на неприкосновеността на личния живот и основните права.
Насърчаването на тези демократични модели изисква ясно признание от страна на политиците както във Washington, така и в Brussels, че дългосрочните стратегически ползи от насърчаването на глобална екосистема, основана на тези принципи, значително надвишават възприеманите краткосрочни рискове, свързани с отвореността. Едновременно с това ЕС трябва да използва установената си регулаторна мощ по-решително в тази специфична област. Поддържайки ангажимента си към високи стандарти, Brussels трябва да преодолее колебанието си относно правната дефиниция на ИИ с отворен код и да действа по-бързо за установяване на ясни насоки и стимули, като по този начин противодейства на нарастващия импулс на Китай в оформянето на глобалните норми. Приемането на известна степен на управлявана несигурност може да е необходимо, за да се избегне отстъпването на още позиции.
Докато трансатлантическите отношения могат да се сблъскват с периодични турбуленции на различни фронтове, предизвика