Зората на поверителността на ИИ: Китайски модели

Възходът на поверителността на ИИ: Как отворените китайски модели могат да поставят началото на нова ера

Бързото разпространение на базирани в облака големи езикови модели (LLMs) доведе до нарастваща загриженост: поверителност на данните. Потребителите се отказват от контрола върху своята информация в момента, в който тя бъде подадена в тези модели, което създава значителна уязвимост.

Въпреки това, потенциална промяна е на хоризонта. Появата на LLMs с отворени тегла, особено от китайски разработчици на ИИ, съчетана с напредъка в периферните изчисления и все по-строгите разпоредби за поверителност на данните, би могла да предефинира пейзажа на ИИ.

Революцията с отворени тегла: Предизвикателство към статуквото

Представянето на LLM с отворени тегла на DeepSeek през януари предизвика вълни в световната общност на ИИ. Това беше последвано от подобни съобщения от други китайски компании, включително Manus AI и Baidu (с техния модел ERNIE), което сигнализира за тенденция към по-голяма достъпност и прозрачност в развитието на ИИ.

Ключовата разлика при моделите с “отворени тегла” се крие в техните публично достъпни параметри. Това позволява на разработчиците да се задълбочат във вътрешните механизми на модела, да го персонализират и да надграждат върху него по-ефективно, предлагайки ниво на контрол, което отсъства при моделите със затворени тегла.

Първоначално възходът на китайските модели с отворени тегла предизвика опасения относно изпращането на потребителски данни към китайски сървъри. Истината обаче е, че повечето доставчици на LLM, обслужвани в облака, независимо от географския си произход, често пренебрегват притесненията на потребителите относно поверителността. Това е особено тревожно предвид естеството на AI чатботите.

За разлика от традиционните приложения, които правят заключения за нашите интереси от историята на сърфиране или от активността в социалните медии, AI чатботите получават директни, изрични разкрития на лична информация. Потребителите доброволно споделят подробности, които никога не биха поверили на конвенционални приложения, което прави нуждата от строги мерки за защита на поверителността още по-критична. За съжаление, изглежда, че AI революцията повтаря познатия модел, при който бързите иновации и пазарното надмощие засенчват основните съображения за поверителност.

Три стълба на подобрената поверителност на ИИ

Въпреки тези опасения, има причина да сме оптимисти. Три ключови елемента се събират, за да предложат на потребителите по-голям контрол върху техните данни:

  • Възходът на конкурентни модели с отворени тегла, особено от Китай
  • Нарастващата мощност и достъпност на периферните изчисления
  • Вълна от агресивно регулаторно правоприлагане

Отворени модели: Овластяване на потребителския избор

Компании като OpenAI, Anthropic и Google най-вече запазват теглата на моделите си като собственост. Това сериозно ограничава възможностите за разполагане за периферни изчисления и поставя ограничения пред потребителите, които се стремят да поддържат контрол върху своите данни локално. Наличието на модели с отворени тегла със сравними възможности от китайски източници увеличава натиска върху западните компании да възприемат подобен подход, в крайна сметка овластявайки потребителите с по-голям избор за запазващи поверителността LLM.

Периферни изчисления: Приближаване на ИИ до потребителя

Периферните изчисления, с възможността си да изпълняват AI модели локално на устройства, предлагат практично решение на опасенията за поверителност на данните. Нарастващата мощност на смартфоните и други изчислителни устройства с ниска мощност позволява разполагането на по-малки, по-ефективни модели директно на устройството на потребителя, премахвайки необходимостта от предаване на данни в облака.

Тъй като AI моделите стават по-оптимизирани и ефективни и като се приеме, че растежът в размера на моделите достига плато поради ограничения в наличните данни за обучение, локални, производителни модели могат да се превърнат в норма. Тази промяна в парадигмата би дала на потребителите много по-голям контрол върху техните лични данни.

Регулаторен контрол: Налагане на отчетност

Въпреки че техническите решения предлагат обещание, регулаторният надзор играе решаваща роля за осигуряване поверителността на потребителите. Регулаторите по целия свят активно прилагат съществуващите разпоредби, свързани с обработката на лични данни от AI модели, издавайки насоки и прилагайки нови правила за справяне с уникалните предизвикателства, породени от AI технологията.

Например италианският орган за защита на данните вече е глобил значително OpenAI за нарушения на поверителността и е блокирал DeepSeek. Ирландският регулатор също проучва AI практиките на Google. Освен това Европейският съвет за защита на данните (ЕСЗД) издаде становища относно използването на лични данни в AI модели, а елементи от Закона на ЕС за ИИ постепенно се въвеждат.

Този регулаторен фокус се простира отвъд Европа. Австралия и Канада са публикували насоки за обучение на AI модели. Бразилия предприе действия миналата година, принуждавайки Meta да промени своите практики за обучение на LLM. Като цяло, тези регулаторни усилия подчертават нарастващото признание за необходимостта от защита на поверителността на потребителите в ерата на ИИ.

Практически стъпки за професионалистите по киберсигурност

Професионалистите по киберсигурност могат да предприемат проактивни мерки за справяне с опасенията за поверителност на ИИ в рамките на своите организации и за своите клиенти, като предприемат следните стъпки:

  1. Възприемете моделите с отворени тегла: Моделите с отворени тегла осигуряват по-голям контрол върху обработката на данни и елиминират непредсказуемите поведенчески промени, често свързвани с моделите със затворени тегла. Чрез преминаване към решения с отворени тегла, организациите могат да подобрят поверителността на данните и да подобрят надеждността на своите AI приложения.
  2. Подгответе се за предизвикателства, свързани със съответствието: Ако преминаването към модели с отворени тегла не е веднага осъществимо, организациите трябва да бъдат готови да се справят с потенциални предизвикателства, свързани със съответствието, и правни рискове, свързани със AI системи със затворени тегла. Липсата на прозрачност в начина, по който AI фирми със затворени тегла обработват данни, затруднява гарантирането на пълно съответствие с разпоредбите за поверителност, което увеличава риска от съдебни действия.
  3. Изисквайте прозрачност от доставчиците на софтуер: От решаващо значение е да се оцени AI и машинното обучение (ML) компоненти в рамките на софтуерните решения, на които разчитат организациите. Задавайте подробни въпроси за използваните модели, условията за лицензиране, дали данните на клиентите се използват за обучение на модели, достъпни за други, и как доставчикът планира да се съобрази със специфични AI разпоредби, като например Закона на ЕС за ИИ. Чрез изискване на прозрачност, организациите могат да вземат информирани решения и да смекчат потенциални рискове за поверителността.

В заключение, въпреки че опасенията относно потенциалната злоупотреба с потребителски данни от чуждестранни субекти са валидни, комбинацията от отворени китайски генеративни AI модели, напредък в периферните изчисления и категорично регулаторно правоприлагане има потенциала да революционизира поверителността на ИИ. Това сближаване би могло да даде възможност на потребителите да използват силата на ИИ с намалени компромиси за поверителността.