Рискове от AI изолационизма

Търговският компромис с иновациите: Нож с две остриета

Най-значимата жертва на всяка широкообхватна забрана на чуждестранни AI технологии е потенциалът за иновации. Докато декларираната цел може да бъде да се изключат ненадеждни AI, действителният резултат може да бъде изолацията на иновационната екосистема на Съединените щати, потенциално надминавайки дори ограниченията, наложени от Китай. Тези забрани, често замислени с широк замах, обикновено имат по-широко въздействие от първоначално предвиденото, ограничавайки достъпа до жизненоважни технологии, като същевременно задушават пазарната динамика и съвместните начинания.

В най-добрия случай, такова технологично капсулиране ще намали динамизма на американския пазар, като елиминира благотворния натиск на чуждестранната конкуренция. Предимствата на международното съперничество вече са очевидни за американските AI компании. При рестриктивен AI режим този мощен стимул би изчезнал, което потенциално би довело до забавяне на напредъка.

Освен че потиска пазарните сили, забраната на чуждестранния AI би възпрепятствала допълнително иновациите, като спре кръстосаното опрашване на технологичните постижения. Достъпът до разнообразна гама от технологии дава възможност на американските инженери да експериментират свободно, да се учат и да интегрират ценни иновации от цял свят. В американския AI сектор, който отдавна се радва на доминираща позиция, тази динамика може да бъде подценена. Ако обаче американската индустрия изостане, възвръщането на лидерството може да зависи изцяло от този безпрепятствен обмен на технологични идеи.

За тези, които са в челните редици на иновациите, достъпът до чуждестранен AI може да бъде изключително важен. Независимо дали Съединените щати запазват лидерството си на пазара на AI, международните модели служат като решаващ източник на обучение, вдъхновение и нови идеи. Ако Съединените щати някога се откажат от водещата си позиция, свободата да се изучават и адаптират най-съвременни системи може да стане абсолютно съществена за способността ни да си възвърнем позициите. Политиците, които залагат на забрана, рискуват да затвърдят конкурентното предимство на чуждестранните субекти.

Последици за киберсигурността: Отслабена защита

Ограничаването на достъпа до китайски AI също носи риска от компрометиране на киберсигурността. AI системите все повече се снабдяват с кибер възможности, играейки двойна роля както в нападателни, така и в отбранителни операции.

Тези развития показват, че AI скоро ще заеме ключова роля в развиващия се пейзаж на киберзаплахите. За изследователите в областта на сигурността разбирането и защитата срещу тези нововъзникващи заплахи ще изисква задълбочено познаване на чуждестранните AI системи. Без непрекъснато, неограничено експериментиране с тези модели, американските експерти по сигурността ще бъдат лишени от решаващите знания и познания, необходими за ефективно противодействие на злонамерени AI приложения.

За отбранителната киберсигурност на частния сектор достъпът до чуждестранни модели скоро може да стане още по-необходим.

Ако инструментите за сканиране, задвижвани от AI, станат индустриален стандарт, достъпът до разнообразен набор от модели ще бъде от първостепенно значение. Всеки модел притежава уникални силни страни, слабости и области на познание. Неизбежно всеки ще идентифицира различни уязвимости. Една цялостна стратегия за киберсигурност в близко бъдеще може да изисква софтуер за сканиране, оборудван с множество AI системи. За американските организации забраната на китайски или друг чуждестранен AI би означавала слепи петна за иначе откриваеми уязвимости. С вързани ръце американският софтуер би станал по-податлив, което потенциално би позволило на чуждестранните конкуренти да диктуват глобалния стандарт за сигурност.

Навигиране в рисковете: Премерен подход

В бързо развиващия се пазар на AI достъпът до чуждестранни технологии остава жизненоважен за поддържане на технологичен паритет, насърчаване на иновациите и осигуряване на стабилна сигурност. Това не означава, че Съединените щати трябва да пренебрегват рисковете за националната сигурност, породени от технологии, произхождащи от противникови нации. В идеалния случай усъвършенстваните технологии биха били разработени изключително от пазарно ориентирани, либерално-демократични нации, освобождавайки ги от обслужване на авторитарни режими в шпионаж, цензура или разпространение на умишлени кибернесигурности. Това обаче не е настоящата реалност и тоталитарните и противникови режими ще продължат да инвестират в технологично развитие. Deepseek, например, работи под надзора на китайското правителство и скептицизмът е оправдан, като се има предвид законовото право на правителството да изисква фирмени данни и историята му на умишлено имплантиране на пробойни в сигурността в потребителските технологии.

За да се запазят съществените ползи от отворения технологичен достъп, като същевременно се смекчат тези рискове, длъжностните лица трябва да избягват налагането на широкообхватни забрани. Вместо това политиците трябва да следват по-малко рестриктивен подход, който съчетава информирана употреба, куриране на сигурността в магазините за приложения и, когато е абсолютно необходимо, тясно насочени регулации, фокусирани върху конкретни, критични за сигурността контексти.

За средния потребител настоящите рискове за сигурността, свързани с китайския AI, вероятно са незначителни и най-ефективната обща стратегия за смекчаване на риска е информираната употреба. Като се има предвид изобилието от възможности за избор и информация за продуктите, налични на пазара на AI, потребителите имат значителна свобода да се образоват и да избират конкретните модели, които отговарят на техните индивидуални нужди за сигурност и поверителност. В повечето случаи потребителите могат и ще изберат по подразбиране американски модели. Когато обаче желаят да експериментират с чуждестранни алтернативи, те трябва да имат право да го правят. В ситуации, в които самообразованието и изборът може да не са достатъчни, курирането на магазините за приложения може да служи като основна предпазна мрежа за сигурността. Водещите магазини за приложения вече активно сканират предложенията за очевидни проблеми със сигурността и, когато е необходимо, премахват опасен софтуер.

В случаите, когато китайските или чуждестранните AI системи представляват наистина неприемливи рискове, политиците трябва щателно да приспособят регулациите към тези специфични контексти. Силно чувствителни федерални данни, например, не трябва да се обработват от китайски AI. Подходящо очертан пример за това е No Deepseek on Government Devices Act, който би ограничил използването на Deepseek във федералните системи. Този регулаторен модел трябва да служи като ръководство за подобни начинания. Регулациите трябва да бъдат изключение, а не правило, но когато са необходими, те трябва да бъдат специфични за контекста, за да се избегне ненужното ограничаване на общата свобода на употреба и експериментиране.

Път напред: Балансиране на сигурността и отвореността

Deepseek и други китайски AI технологии несъмнено заслужават внимателно разглеждане и скептицизъм, като се имат предвид геополитическото напрежение и противоречивите ценности. Независимо от това, всяка цялостна забрана би пожертвала не само общата свобода на употреба, но и решаващия пазарен динамизъм, възможностите за иновации и предимствата за киберсигурността. Чрез следване на премерен подход, който дава приоритет на информираната употреба, курирането на магазините за приложения и, когато е абсолютно необходимо, тясно очертаното регулиране, Съединените щати могат да поддържат технологичната отвореност, която е от съществено значение както за сигурността, така и за глобалното лидерство.

За да се разширят конкретните точки:

1. Нюансите на пазарния динамизъм:

Концепцията за “пазарен динамизъм” се простира отвъд обикновената конкуренция. Тя обхваща цялата екосистема на иновациите, включително:

  • Скорост на иновациите: Чуждестранната конкуренция действа като катализатор, принуждавайки местните компании да иновират с по-бързи темпове, за да запазят конкурентното си предимство.
  • Разнообразие от подходи: Различни компании и изследователски групи, както местни, така и чуждестранни, ще изследват различни подходи за решаване на AI проблеми. Това разнообразие води до по-богат набор от идеи и потенциални пробиви.
  • Привличане на таланти: Жизнената и отворена AI екосистема привлича най-добрите таланти от цял свят, което допълнително подхранва иновациите.
  • Инвестиционни потоци: Здравословната конкурентна среда привлича инвестиции, осигурявайки ресурсите, необходими за изследвания и разработки.

Ограничаването на достъпа до чуждестранен AI би задушило тези аспекти на пазарния динамизъм, което потенциално би довело до по-малко иновативен и по-малко конкурентен американски AI сектор.

2. Спецификата на технологичното кръстосано опрашване:

“Технологичното кръстосано опрашване” не е просто копиране на идеи. То включва:

  • Разбиране на различни архитектури: Проучването на начина, по който са проектирани чуждестранните AI модели,може да даде представа за алтернативни архитектури и подходи, които американските изследователи може да не са обмислили.
  • Идентифициране на нови техники: Чуждестранните AI модели могат да използват уникални алгоритми или техники за обучение, които могат да бъдат адаптирани и подобрени от американските изследователи.
  • Сравнителен анализ и оценка: Сравняването на производителността на американски и чуждестранни AI модели при различни задачи осигурява ценни показатели и помага да се идентифицират области за подобрение.
  • Вдъхновение и креативност: Излагането на различни подходи може да предизвика нови идеи и да вдъхнови креативни решения на предизвикателни AI проблеми.

Като ограничават достъпа до чуждестранен AI, САЩ биха се лишили от тези ценни възможности за обучение.

3. Киберсигурност: Отвъд отбранителните мерки:

Последиците за киберсигурността на AI не се ограничават до отбранителни мерки. AI може да се използва и за:

  • Офанзивни кибероперации: Инструментите, задвижвани от AI, могат да автоматизират откриването на уязвимости, разработването на експлойти и изпълнението на кибератаки.
  • Разузнаване за заплахи: AI може да се използва за анализиране на огромни количества данни, за да се идентифицират нововъзникващи заплахи и да се предвидят бъдещи атаки.
  • Измама и дезинформация: AI може да се използва за генериране на реалистично фалшиво съдържание, включително текст, изображения и видеоклипове, с цел разпространение на дезинформация или манипулиране на общественото мнение.

Разбирането на това как чуждестранните противници използват AI в тези области е от решаващо значение за разработването на ефективни контрамерки.

4. Значението на информираната употреба:

“Информираната употреба” не е просто четене на описания на продукти. Тя включва:

  • Разбиране на рисковете: Потребителите трябва да са наясно с потенциалните рискове за сигурността и поверителността, свързани с използването на която и да е AI система, независимо от нейния произход.
  • Оценка на източника: Потребителите трябва да вземат предвид репутацията и надеждността на компанията или организацията, разработила AI системата.
  • Четене на политиките за поверителност: Потребителите трябва внимателно да прегледат политиките за поверителност на AI системите, за да разберат как ще бъдат събирани, използвани и споделяни техните данни.
  • Използване на силни пароли и практики за сигурност: Потребителите трябва да следват основните най-добри практики за киберсигурност, като например използване на силни пароли и активиране на двуфакторна автентификация, когато използват AI системи.
  • Поддържане на информираност: Потребителите трябва да бъдат в крак с най-новите новини и най-добри практики за сигурност и поверителност на AI.

Овластяването на потребителите с тези знания е решаваща първа линия на защита.

5. Куриране на магазините за приложения: Необходима предпазна мрежа:

Курирането на магазините за приложения осигурява допълнителен слой защита чрез:

  • Проверка на приложенията за уязвимости в сигурността: Магазините за приложения могат да сканират приложенията за известни уязвимости в сигурността, преди да бъдат предоставени на потребителите.
  • Премахване на злонамерени приложения: Магазините за приложения могат да премахват приложения, за които е установено, че са злонамерени или нарушават техните условия за ползване.
  • Предоставяне на потребителски отзиви и оценки: Потребителските отзиви и оценки могат да помогнат на потребителите да се информират за качеството и надеждността на приложенията.
  • Налагане на стандарти за сигурност: Магазините за приложения могат да налагат стандарти за сигурност за разработчиците, изисквайки от тях да прилагат определени мерки за сигурност в своите приложения.

Този процес на куриране помага да се създаде по-безопасна среда за потребителите да експериментират с AI технологии.

6. Тясно очертано регулиране: Изключението, а не правилото:

Регулирането трябва да се използва пестеливо и само когато е абсолютно необходимо. Когато е необходимо, то трябва да бъде:

  • Целенасочено: Регулациите трябва да бъдат фокусирани върху конкретни рискове и конкретни контексти, а не върху широки забрани.
  • Пропорционално: Регулациите трябва да бъдат пропорционални на риска, който имат за цел да адресират.
  • Основано на доказателства: Регулациите трябва да се основават на солидни доказателства за вреда, а не на спекулации или страх.
  • Редовно преразглеждано: Регулациите трябва да се преразглеждат редовно, за да се гарантира, че са все още необходими и ефективни.
  • Прозрачно: Процесът на разработване и прилагане на регулациите трябва да бъде прозрачен и отворен за обществено участие.

Този подход гарантира, че регулациите не задушават ненужно иновациите и не ограничават свободата на потребителите и изследователите. No Deepseek on Government Devices Act предоставя добър модел.
Като внимателно обмислят тези фактори и възприемат нюансиран подход, Съединените щати могат да се ориентират в сложния пейзаж на развитието на AI и да запазят лидерската си позиция, като същевременно защитават националната си сигурност. Ключът е да се постигне баланс между отвореност и сигурност, насърчаване на иновациите, като същевременно се смекчават рисковете.