DeepSeek под обстрел: Baidu изразява опасения

DeepSeek под обстрел: Baidu изразява опасения относно AI модела

Китайският AI модел DeepSeek, който привлече значително внимание и похвали по-рано тази година, наскоро беше подложен на критики от Робин Ли, председател и главен изпълнителен директор на Baidu. По време на конференцията на Baidu AI Developer Conference на 25 април Ли изрази резерви относно възможностите на DeepSeek, посочвайки неговите ограничения в обработката на разнообразни медийни формати, бавната му производителност и високите разходи, както и склонността му да генерира неточна информация, което го прави ненадежден за широко разпространение.

Противоречивият дебют на DeepSeek

Според репортажи от Guancha.cn и Sina.com, Ли е засегнал променливия пейзаж на мащабни AI модели по време на конференцията. Той подчерта интензивната конкуренция между разработчиците на модели, често описвана като ‘надпревара с плъхове’, и произтичащото от това объркване и несигурност сред разработчиците да създават приложения с увереност.

Ли подчерта, че ‘Без приложения, чиповете и моделите са безполезни.’ Той посочи високата цена и непрактичността на използването на настоящите мащабни модели като основна пречка за разработчиците, които се стремят да изграждат AI приложения.

DeepSeek, стартираща компания със седалище в Хангжу, Китай, пусна своя модел за разсъждения с отворен код, R1, през януари. По това време държавните медии възхваляваха DeepSeek като надминаващ компании като OpenAI. Въпреки това, последващите разследвания от потребители и изследователи разкриха недостатъци, уязвимости в сигурността и потенциални рискове. Многобройни правителства, включително Тайван, Япония, Южна Корея, Съединените щати, Канада, Италия, Австралия и Холандия, заедно със стотици компании, забраниха използването на DeepSeek на правителствени и корпоративни устройства.

На 8 февруари експерти по AI сигурност споделиха резултатите от задълбочени тестове за сигурност на DeepSeek с медиите. Те откриха, че DeepSeek е по-податлив на ‘jailbreaking’ в сравнение с ChatGPT, Gemini и Claude. Тази уязвимост позволява на потребителите да заобикалят оригиналните ограничения за безопасност на AI, което улеснява получаването на потенциално опасно, вредно или незаконно съдържание.

През март ‘Luchen Technology’, компания за AI инфраструктура, свързана с университета Tsinghua, която беше сред първите, които интегрираха DeepSeek модели, за да предоставят API и облачни огледални услуги, обяви спирането на свързаните услуги. Основателят на компанията, Ю Янг, разкри в публикация, че действителните разходи, свързани с DeepSeek, са значително по-високи от теоретичните разходи. След онлайн критики, той публично заяви, че DeepSeek не може да работи без използването на американска технология в краткосрочен план, поставяйки въпроса защо тази реалност не може да бъде призната открито.

Според доклад на Sina Technology от 4 март, DeepSeek обяви теоретична норма на печалба на разходите от 545% за своята онлайн система на 1 март в 17:02. Впоследствие Luchen Technology обяви, че ще преустанови предоставянето на DeepSeek API услуги в рамките на една седмица, като призова потребителите да използват оставащите си салда.

В доклада се отбелязва, че Luchen Technology не е разкрила публично конкретните причини за прекратяването на DeepSeek API услугата. Въпреки това, обширният анализ на основателя на разходите на DeepSeek на платформи като Zhihu предполага, че цената е основен фактор при вземането на решение за прекратяване на предоставянето на API услугата.

Опасения относно националната сигурност

Връзките между DeepSeek и китайското правителство са потенциално по-преки, отколкото първоначално се смяташе. Feroot Security, канадска фирма за киберсигурност, откри значителни връзки между страницата за влизане в уебсайта на DeepSeek и China Mobile, китайска държавна компания, санкционирана преди това от правителството на САЩ.

През последните месеци опасенията относно националната сигурност доведоха до нарастващи призиви за забрана на DeepSeek.

На 24 април няколко членове на Камарата на представителите на САЩ изпратиха писмо до DeepSeek, изразявайки опасения относно връзките на компанията с Китайската комунистическа партия (ККП) и отправяйки искане за информация относно данните на САЩ, използвани за обучение на нейните AI модели.

Представителят Брет Гътри, председател на комисията по енергетика и търговия на Камарата, и представителят Гъс Билиракис, председател на подкомисията по иновации, данни и търговия, заедно с десет други членове на подкомисията, адресираха писмо до DeepSeek, изразявайки опасения относно ‘събирането на лични данни на американци’ от компанията и свързаните с това рискове за националната сигурност.

В писмото Гътри и Билиракис заявиха, че ‘DeepSeek признава, че предава личните данни на американски потребители към сървъри в Китай, където тази информация несъмнено ще бъде достъпна за служители, свързани с Китайската комунистическа партия. Ние сме загрижени, че тези агентски взаимоотношения с нашия основен противник застрашават нашите данни и националната ни сигурност.

‘За да гарантираме, че американските потребители и техните бизнеси са защитени от чужда намеса, ние започваме разследване на DeepSeek и заплахата, която тя представлява за нашата нация.’

В писмото се посочва още: ‘Според медийни репортажи, компанията също споделя личната информация на потребителите с други организации, свързани с Китайската комунистическа партия, включително ByteDance.

‘В същото време изследователи откриха критични уязвимости в предполагаемите контроли за сигурност и предпазните мерки на модела на DeepSeek. В отговор на тези рискове, нарастващ брой щати, включително Ню Йорк, Тексас и Вирджиния, забраниха използването на DeepSeek на правителствени устройства, а главните прокурори на щатите призоваха за по-широки забрани.’

На 16 април специалната комисия на Камарата на представителите на САЩ по Китайската комунистическа партия публикува доклад, подчертаващ, че DeepSeek представлява значителна заплаха за националната сигурност на САЩ. Докладът обвини DeepSeek в събиране на потребителски данни за ККП и тайно манипулиране на резултатите, превръщайки се в най-новото средство за ККП да се разкрасява, да наблюдава чужди граждани и да краде и подкопава ограниченията за експортен контрол на САЩ.

В доклада се посочва, че въпреки че DeepSeek може да изглежда просто като поредния AI чатбот, предоставящ на потребителите начин да генерират текст и да отговарят на въпроси, по-задълбоченият преглед разкрива, че DeepSeek тайно предава получените лични данни на China Mobile, която има връзки с китайската армия, създавайки уязвимости в сигурността за потребителите. САЩ вече забраниха на China Mobile да работи в Съединените щати.

Задълбочен поглед върху предполагаемите недостатъци на DeepSeek

Въпреки че първоначалният шум около DeepSeek изрисува картина на AI чудо, готово да революционизира различни сектори, по-внимателният преглед разкри по-нюансирана и сложна реалност. Опасенията, повдигнати от главния изпълнителен директор на Baidu, Робин Ли, и последващите разследвания от експерти по киберсигурност и правителствени органи, подчертават няколко критични области, в които DeepSeek не отговаря на очакванията и поражда потенциални рискове.

Ограничени мултимодални възможности

Една от основните критики, отправени към DeepSeek, е нейната ограничена способност да обработва мултимодално съдържание. За разлика от по-усъвършенстваните AI модели, които могат безпроблемно да интегрират и разбират различни форми на данни, включително текст, изображения, аудио и видео, DeepSeek, според съобщения, се бори да разбере каквото и да било извън основния текстов вход. Това ограничение значително ограничава нейната приложимост в реални сценарии, където информацията често се представя в комбинация от формати. Например, DeepSeek може да се затрудни да анализира публикация в социалните медии, която включва както текст, така и изображение, или да транскрибира и разбере видеоконференция.

Проблеми с производителността: Скорост и цена

Освен ограниченията си при обработката на разнообразни медии, DeepSeek също е изправена пред предизвикателства, свързани с нейната производителност. Според Робин Ли, моделът се характеризира със своята ‘бавна’ скорост и ‘висока’ цена, което го прави по-малко привлекателен за разработчиците, които се стремят да изграждат мащабируеми и рентабилни AI приложения. Високите изчислителни ресурси, необходими за стартиране на DeepSeek, могат да се превърнат в значителни разходи за бизнеса, особено за тези с мащабни разгръщания. Освен това, бавната скорост на обработка може да възпрепятства приложения в реално време, като чатботове или виртуални асистенти, където отзивчивостта е от решаващо значение за положително потребителско изживяване.

Проблемът с ‘процента на халюцинации’

Друго основно притеснение около DeepSeek е нейният висок ‘процент на халюцинации’, отнасящ се до тенденцията на модела да генерира неточна или безсмислена информация. Този проблем представлява значително предизвикателство за приложения, които изискват надеждни и достоверни резултати. В критични области, като здравеопазване или финанси, където точността е от първостепенно значение, рискът DeepSeek да произведе невярна или подвеждаща информация може да има сериозни последици. ‘Процентът на халюцинации’ подкопава доверието в модела и ограничава нейната използваемост в чувствителни контексти.

Уязвимости в сигурността и Jailbreaking

Разкритието, че DeepSeek е по-податлив на ‘jailbreaking’ от други водещи AI модели, поражда значителни опасения за сигурността. ‘Jailbreaking’ се отнася до процеса на заобикаляне на ограниченията за безопасност на AI, за да се извлече вредно, неетично или незаконно съдържание. Фактът, че DeepSeek може да бъде по-лесно манипулиран по този начин, предполага слабости в нейната основна архитектура за сигурност. Тази уязвимост може да бъде експлоатирана от злонамерени участници за генериране на дезинформация, разпространение на пропаганда или участие в други вредни дейности.

Поверителност на данните и рискове за националната сигурност

Твърдяните връзки между DeepSeek и китайското правителство, особено нейните практики за споделяне на данни с China Mobile, предизвикаха тревога относно поверителността на данните и националната сигурност. Предаването на личните данни на американски потребители към сървъри в Китай, където те биха могли да бъдат достъпни за служители, свързани с ККП, поражда сериозни опасения относно потенциално наблюдение, шпионаж и компрометиране на чувствителна информация. Проверката на DeepSeek от правителството на САЩ подчертава нарастващото осъзнаване на потенциалните рискове, свързани с AI модели, разработени от чуждестранни организации, които имат тесни връзки с враждебни правителства.

По-широките последици

Опасенията около DeepSeek се простират отвъд специфичните ограничения и уязвимости на този конкретен AI модел. Те отразяват по-широки предизвикателства и рискове, свързани с бързото развитие и внедряване на AI технологии. Случаят DeepSeek подчертава значението на:

  • Строги тестове и оценка: За да се идентифицират и разрешат потенциални слабости, пристрастия и уязвимости в сигурността в AI модели, преди те да бъдат широко внедрени, са необходими задълбочени тестове и оценка.
  • Прозрачност и отчетност: Разработчиците трябва да бъдат прозрачни относно данните, използвани за обучение на техните модели, и алгоритмите, които използват. Те също така трябва да бъдат държани отговорни за резултатите и последиците от техните AI системи.
  • Поверителност на данните и мерки за защита на сигурността: Необходими са строги мерки за поверителност на данните и сигурност, за да се защити личната информация на потребителите от неоторизиран достъп, злоупотреба или експлоатация.
  • Международно сътрудничество: Международното сътрудничество е от решаващо значение за установяване на общи стандарти и разпоредби за разработване и внедряване на AI, гарантиращи, че тези технологии се използват отговорно и етично.
  • Критично мислене и медийна грамотност: Потребителите трябва да бъдат насърчавани да оценяват критично информацията, генерирана от AI модели, и да развиват умения за медийна грамотност, за да различават точното от подвеждащото съдържание.

Противоречието около DeepSeek служи като предупредителна приказка, напомняйки ни, че стремежът към AI иновации трябва да бъде балансиран с внимателно обмисляне на потенциалните рискове и обществени последици.