AI: Изключването на Китай е рисковано

Напредъкът на изкуствения интелект (AI) предизвика глобален разговор за необходимостта от установяване на механизми за надзор. Тези механизми са предназначени да смекчат рисковете, свързани с трансформиращата сила на AI. Решението на правителството на Съединените щати да включи в черния списък китайски изследователски институт хвърли сянка върху перспективите за международно сътрудничество в тази област. Този ход, макар и предназначен да защити националните интереси, може да попречи на развитието на единен глобален подход към управлението на AI.

Включването на Пекинската академия за изкуствен интелект в черния списък

На 28 март 2025 г. Пекинската академия за изкуствен интелект (BAAI) беше добавена към списъка на организациите от правителството на САЩ. Това действие ефективно ограничава достъпа на BAAI до американски технологии и сътрудничество, поради опасения относно потенциалното й участие в дейности, които застрашават националната сигурност и външната политика на САЩ. Решението произтича от двойствения характер на AI, където технологиите, разработени за цивилни приложения, могат да бъдат пренасочени за военни или цели за наблюдение.

BAAI, водеща изследователска институция в Китай, е в челните редици на AI иновациите, допринасяйки в области като обработка на естествен език, компютърно зрение и машинно обучение. Изключването й от международното сътрудничество предизвиква безпокойство относно фрагментацията на AI изследванията и потенциала за отклоняващи се стандарти и норми.

Аргументът за международно сътрудничество в управлението на AI

Присъщият характер на AI налага глобален подход към управлението. AI системите са все по-взаимосвързани, надхвърляйки националните граници и засягащи обществата по целия свят. Предизвикателствата, породени от AI, като пристрастия, нарушения на поверителността и потенциал за злоупотреби, изискват колективни действия и споделена отговорност.

Необходимостта от хармонизирани стандарти

Един от ключовите аргументи за международното сътрудничество е необходимостта от хармонизирани стандарти. Тъй като AI технологиите се разпространяват в различни страни, липсата на общи стандарти може да доведе до проблеми с оперативната съвместимост, възпрепятствайки безпроблемната интеграция на AI системи и създавайки бариери пред международната търговия и сътрудничество. Хармонизираните стандарти могат също да насърчат доверие и прозрачност, като гарантират, че AI системите са разработени и внедрени по отговорен и етичен начин.

Справяне с етичните проблеми

AI повдига множество етични въпроси, включително пристрастия, справедливост и отчетност. AI системите могат да увековечат и усилят съществуващите обществени пристрастия, ако са обучени върху пристрастни данни или проектирани без адекватно отчитане на етичните принципи. Международното сътрудничество е от съществено значение за разработването на етични насоки и рамки, които да отговорят на тези опасения и да гарантират, че AI системите се използват по начин, който насърчава човешкото благосъстояние и социалната справедливост.

Намаляване на рисковете от злоупотреба с AI

Потенциалът за злоупотреба с AI, особено в области като автономни оръжия и технологии за наблюдение, представлява значителна заплаха за глобалната сигурност и правата на човека. Международното сътрудничество е от решаващо значение за установяване на норми и правила, които предотвратяват разработването и внедряването на AI системи, които биха могли да бъдат използвани за злонамерени цели. Това включва мерки като контрол върху износа, изисквания за прозрачност и международни споразумения за отговорното използване на AI.

Потенциалните последици от изключването на Китай

Въпреки че решението на правителството на САЩ да включи BAAI в черния списък може да бъде продиктувано от опасения за сигурността, то носи потенциални последици, които биха могли да подкопаят по-широките усилия за установяване на глобална система за управление на AI.

Възпрепятстване на диалога и сътрудничеството

Изключването на Китай, основен играч в областта на AI, от международни форуми и сътрудничество може да възпрепятства диалога и сътрудничеството по въпроси като безопасността, етиката и сигурността на AI. Без участието на Китай всяка глобална рамка за управление на AI вероятно ще бъде непълна и неефективна.

Насърчаване на технологичното отклонение

Включването на BAAI в черния списък може да ускори тенденцията на технологично отклонение, при което различни страни разработват свои собствени AI стандарти и норми, което води до фрагментация и несъвместимост. Това може да създаде бариери пред международната търговия и сътрудничество, както и да увеличи риска AI системите да бъдат използвани за злонамерени цели.

Ограничаване на достъпа до таланти и експертен опит

Китай разполага с огромен резерв от AI таланти и експертен опит и изключването на китайски изследователи и институции от международното сътрудничество може да ограничи достъпа до този ценен ресурс. Това може да забави темповете на AI иновациите и да попречи на разработването на решения за глобални предизвикателства.

Пътят напред: Балансиране на опасенията за сигурността с необходимостта от сътрудничество

Навигирането в сложния пейзаж на управлението на AI изисква деликатен баланс между справянето с опасенията за сигурността и насърчаването на международното сътрудничество. Въпреки че е важно да се защитават националните интереси и да се предотвратява злоупотребата с AI, също толкова важно е да се ангажират всички заинтересовани страни, включително Китай, за да се развие общо разбиране на рисковете и възможностите, представени от AI.

Установяване на ясни червени линии

Един от подходите е да се установят ясни червени линии, които да определят неприемливо поведение при разработването и внедряването на AI. Тези червени линии могат да се фокусират върху области като автономни оръжия, технологии за наблюдение и използването на AI за нарушения на правата на човека. Като ясно формулира тези граници, международната общност може да изпрати силно послание, че някои начини на използване на AI са неприемливи и няма да бъдат толерирани.

Насърчаване на прозрачност и отчетност

Друга важна стъпка е насърчаването на прозрачност и отчетност при разработването и внедряването на AI системи. Това включва мерки като изискване от разработчиците да разкриват данните и алгоритмите, използвани в техните системи, както и установяване на механизми за независими одити и надзор. Чрез увеличаване на прозрачността и отчетността международната общност може да изгради доверие в AI системите и да намали риска от злоупотреби.

Насърчаване на диалог и ангажираност

Въпреки предизвикателствата, от съществено значение е да се насърчава диалог и ангажираност с Китай относно управлението на AI. Това може да включва установяване на редовни срещи между правителствени служители, изследователи и представители на индустрията за обсъждане на въпроси от общ интерес. Също така може да включва подкрепа за съвместни изследователски проекти и инициативи, които насърчават сътрудничеството в областта на безопасността, етиката и сигурността на AI.

Подчертаване на споделените интереси

И накрая, важно е да се подчертаят споделените интереси, които всички страни имат за гарантиране на отговорното разработване и внедряване на AI. Тези споделени интереси включват насърчаване на икономически растеж, подобряване на здравеопазването, справяне с изменението на климата и повишаване на глобалната сигурност. Като се фокусира върху тези общи цели, международната общност може да изгради основа за сътрудничество в областта на управлението на AI.

По-широките последици за глобалното технологично сътрудничество

Действията на правителството на САЩ по отношение на BAAI са показателни за по-широка тенденция на нарастващо геополитическо напрежение в технологичния сектор. Тази тенденция поражда опасения относно бъдещето на глобалното технологично сътрудничество и потенциала за фрагментиран технологичен пейзаж.

Рискът от ‘Сплитернет’

Един от най-големите рискове е появата на “сплитернет”, където различните страни разработват свои собствени отделни интернет екосистеми, с различни стандарти, протоколи и структури на управление. Това може да създаде бариери пред трансграничните потоци от данни, да попречи на международната търговия и сътрудничество и да затрудни справянето с глобални предизвикателства като киберсигурността и изменението на климата.

Необходимостта от многостранност

За да се избегне най-лошият сценарий, от съществено значение е да се потвърдят принципите на многостранността и международното сътрудничество в технологичния сектор. Това включва работа чрез международни организации като Организацията на обединените нации, Световната търговска организация и Международния телекомуникационен съюз за разработване на общи стандарти и норми за дигиталната ера.

Насърчаване на отвореност и оперативна съвместимост

Също така е важно да се насърчава отвореността и оперативната съвместимост в технологичния сектор. Това означава да се избягват протекционистки мерки, които ограничават достъпа до пазара или дискриминират чуждестранни компании. Това също означава да се подкрепят технологиите и стандартите с отворен код, които насърчават иновациите и конкуренцията.

Критичната роля на обществения дискурс и осведомеността

В крайна сметка успехът на всяко усилие за управление на AI и насърчаване на глобалното технологично сътрудничество зависи от насърчаването на информиран обществен дискурс и повишаване на осведомеността относно предизвикателствата и възможностите, представени от тези технологии.

Обучение на обществото

От съществено значение е да се обучи обществото за AI и неговото потенциално въздействие върху обществото. Това включва предоставяне на точна и достъпна информация за AI технологиите, както и насърчаване на критично мислене относно етичните и социални последици от AI.

Ангажиране на гражданското общество

Организациите на гражданското общество, включително групи за застъпничество, мозъчни тръстове и академични институции, имат важна роля в оформянето на дебата за управлението на AI. Тези организации могат да предоставят независим анализ, да се застъпват за отговорни политики и да държат правителствата и корпорациите отговорни.

Насърчаване на медийната грамотност

И накрая, важно е да се насърчава медийната грамотност и да се бори с дезинформацията за AI. Това включва обучение на хората как критично да оценяват информацията онлайн, както и подкрепа на инициативи за проверка на факти и усилия за борба с кампаниите за дезинформация.

В заключение, решението за изключване на Китай от определянето на правилата за AI е сложно решение с потенциално големи последици. Въпреки че легитимните опасения за сигурността трябва да бъдат разгледани, от решаващо значение е да се намери начин да се балансират тези опасения с необходимостта от международно сътрудничество. Пътят напред изисква установяване на ясни червени линии, насърчаване на прозрачност и отчетност, насърчаване на диалог и ангажираност и подчертаване на споделените интереси. Работейки заедно, международната общност може да използва силата на AI за добро, като същевременно смекчава рисковете и осигурява по-справедливо и устойчиво бъдеще за всички. Залозите са високи и времето за действие е сега.