DeepSeek под огнем: Критика Baidu
Китайская AI-модель DeepSeek, привлекшая к себе значительное внимание и похвалу в начале этого года, недавно подверглась критике со стороны Робина Ли, председателя и генерального директора Baidu. Во время конференции Baidu AI Developer Conference 25 апреля Ли выразил сомнения относительно возможностей DeepSeek, ссылаясь на ее ограничения в обработке различных медиаформатов, медленную производительность и высокие затраты, а также на склонность к генерированию неточной информации, что делает ее ненадежной для широкого использования.
Спорный дебют DeepSeek
Согласно сообщениям Guancha.cn и Sina.com, Ли затронул тему колеблющегося ландшафта крупномасштабных AI-моделей во время конференции. Он подчеркнул интенсивную конкуренцию между разработчиками моделей, часто описываемую как ‘крысиные бега’, и возникающую в результате путаницу и нерешительность среди разработчиков в создании приложений.
Ли подчеркнул, что ‘Без приложений чипы и модели бесполезны’. Он указал на высокую стоимость и непрактичность использования текущих крупномасштабных моделей в качестве основного препятствия для разработчиков, стремящихся создавать AI-приложения.
DeepSeek, стартап из Ханчжоу, Китай, выпустил свою модель логических рассуждений с открытым исходным кодом, R1, в январе. В то время государственные СМИ хвалили DeepSeek за то, что она превосходит такие компании, как OpenAI. Однако последующие исследования пользователей и исследователей выявили недостатки, уязвимости в системе безопасности и потенциальные риски. Многочисленные правительства, включая Тайвань, Японию, Южную Корею, Соединенные Штаты, Канаду, Италию, Австралию и Нидерланды, а также сотни компаний, запретили использование DeepSeek на государственных и корпоративных устройствах.
8 февраля эксперты по AI-безопасности поделились результатами углубленных тестов безопасности DeepSeek со средствами массовой информации. Они обнаружили, что DeepSeek более восприимчив к ‘джейлбрейку’ по сравнению с ChatGPT, Gemini и Claude. Эта уязвимость позволила пользователям обойти исходные ограничения безопасности AI, что облегчило получение потенциально опасного, вредного или незаконного контента.
В марте ‘Luchen Technology’, компания AI-инфраструктуры, связанная с университетом Цинхуа, которая первой интегрировала модели DeepSeek для предоставления API и облачных зеркальных сервисов, объявила о приостановке связанных сервисов. Основатель компании, Ю. Ян, сообщил в сообщении, что фактические затраты, связанные с DeepSeek, значительно выше теоретических. После онлайн-негативной реакции он публично заявил, что DeepSeek не может работать без использования американских технологий в краткосрочной перспективе, задаваясь вопросом, почему эту реальность нельзя признать открыто.
Согласно отчету Sina Technology от 4 марта, DeepSeek объявила о теоретической рентабельности онлайн-системы в размере 545% 1 марта в 17:02. Впоследствии Luchen Technology объявила о прекращении предоставления услуг DeepSeek API в течение недели, призывая пользователей использовать оставшиеся балансы.
В отчете отмечалось, что Luchen Technology публично не раскрыла конкретные причины прекращения предоставления сервиса DeepSeek API. Однако обширный анализ затрат DeepSeek основателем на таких платформах, как Zhihu, предполагает, что стоимость была основным фактором в решении прекратить предоставление сервиса API.
Опасения по поводу национальной безопасности
Связи между DeepSeek и китайским правительством потенциально более прямые, чем считалось изначально. Feroot Security, канадская компания по кибербезопасности, обнаружила значительные связи между страницей входа на сайт DeepSeek и China Mobile, китайской государственной компанией, ранее подвергнутой санкциям со стороны правительства США.
В последние месяцы опасения по поводу национальной безопасности привели к усилению призывов к запрету DeepSeek.
24 апреля несколько членов Палаты представителей США направили письмо в DeepSeek, выражая обеспокоенность по поводу связей компании с Коммунистической партией Китая (КПК) и запрашивая информацию об американских данных, использованных для обучения ее AI-моделей.
Представитель Бретт Гатри, председатель Комитета по энергетике и торговле Палаты представителей, и представитель Гас Билиракис, председатель Подкомитета по инновациям, данным и торговле, вместе с десятью другими членами подкомитета, обратились с письмом в DeepSeek, выражая обеспокоенность по поводу ‘сбора личных данных американцев’ компанией и связанных с этим рисков для национальной безопасности.
В письме Гатри и Билиракис заявили, что ‘DeepSeek признает передачу личных данных американских пользователей на серверы в Китае, где эта информация, несомненно, будет доступна должностным лицам, связанным с Коммунистической партией Китая. Мы обеспокоены тем, что эти отношения с нашим главным противником ставят под угрозу наши данные и национальную безопасность’.
‘Чтобы гарантировать, что американские пользователи и их предприятия защищены от иностранного вмешательства, мы начинаем расследование в отношении DeepSeek и угрозы, которую она представляет для нашей нации’.
В письме далее говорилось: ‘Согласно сообщениям в СМИ, компания также делится личной информацией пользователей с другими организациями, связанными с Коммунистической партией Китая, включая ByteDance’.
‘В то же время исследователи обнаружили критические уязвимости в предполагаемых средствах контроля безопасности и защиты модели DeepSeek. В ответ на эти риски растущее число штатов, включая Нью-Йорк, Техас и Вирджинию, запретили использование DeepSeek на государственных устройствах, а генеральные прокуроры штатов призвали к более широким запретам’.
16 апреля Специальный комитет Палаты представителей США по Коммунистической партии Китая опубликовал отчет, в котором подчеркивается, что DeepSeek представляет серьезную угрозу для национальной безопасности США. В отчете DeepSeek обвиняется в сборе данных пользователей для КПК и тайной манипуляции результатами, становясь последним инструментом для КПК для приукрашивания себя, мониторинга иностранных граждан, а также кражи и подрыва ограничений экспортного контроля США.
В отчете отмечается, что, хотя DeepSeek может показаться всего лишь еще одним AI-чат-ботом, предоставляющим пользователям способ генерировать текст и отвечать на вопросы, более пристальное рассмотрение показывает, что DeepSeek тайно передает полученные личные данные в China Mobile, которая имеет связи с китайской армией, создавая уязвимости в системе безопасности для пользователей. США уже запретили China Mobile работать в Соединенных Штатах.
Глубокое погружение в предполагаемые недостатки DeepSeek
В то время как первоначальная шумиха вокруг DeepSeek нарисовала картину AI-чуда, готового произвести революцию в различных секторах, более пристальное рассмотрение выявило более нюансированную и сложную реальность. Опасения, высказанные генеральным директором Baidu Робином Ли, и последующие расследования экспертов по кибербезопасности и правительственных органов, подчеркивают несколько критических областей, в которых DeepSeek не оправдывает ожиданий и создает потенциальные риски.
Ограниченные мультимодальные возможности
Одним из основных критических замечаний в адрес DeepSeek является его ограниченная способность обрабатывать мультимодальный контент. В отличие от более продвинутых AI-моделей, которые могут беспрепятственно интегрировать и понимать различные формы данных, включая текст, изображения, аудио и видео, DeepSeek, как сообщается, с трудом понимает что-либо, кроме базового текстового ввода. Это ограничение значительно ограничивает его применимость в реальных сценариях, где информация часто представлена в комбинации форматов. Например, DeepSeek может испытывать трудности с анализом сообщения в социальных сетях, которое включает как текст, так и изображение, или с расшифровкой и пониманием видеоконференции.
Проблемы с производительностью: скорость и стоимость
Помимо ограничений в обработке разнообразных медиафайлов, DeepSeek также сталкивается с проблемами, связанными с его производительностью. По словам Робина Ли, модель характеризуется ‘медленной’ скоростью и ‘высокой’ стоимостью, что делает ее менее привлекательной для разработчиков, стремящихся создавать масштабируемые и экономически эффективные AI-приложения. Высокие вычислительные ресурсы, необходимые для запуска DeepSeek, могут привести к значительным расходам для бизнеса, особенно для крупномасштабных развертываний. Кроме того, медленная скорость обработки может затруднить работу приложений в режиме реального времени, таких как чат-боты или виртуальные помощники, где скорость реагирования имеет решающее значение для положительного пользовательского опыта.
Проблема ‘коэффициента галлюцинаций’
Еще одна серьезная проблема, связанная с DeepSeek, - это его высокий ‘коэффициент галлюцинаций’, означающий склонность модели генерировать неточную или бессмысленную информацию. Эта проблема представляет собой серьезную проблему для приложений, требующих надежных и заслуживающих доверия результатов. В критических областях, таких как здравоохранение или финансы, где точность имеет первостепенное значение, риск того, что DeepSeek выдаст ложную или вводящую в заблуждение информацию, может иметь серьезные последствия. ‘Коэффициент галлюцинаций’ подрывает доверие к модели и ограничивает ее применимость в чувствительных контекстах.
Уязвимости в системе безопасности и джейлбрейк
Открытие того, что DeepSeek более восприимчив к ‘джейлбрейку’, чем другие ведущие AI-модели, вызывает серьезные опасения в отношении безопасности. ‘Джейлбрейк’ - это процесс обхода ограничений безопасности AI для получения вредоносного, неэтичного или незаконного контента. Тот факт, что DeepSeek можно легче манипулировать таким образом, предполагает слабости в его базовой архитектуре безопасности. Эта уязвимость может быть использована злоумышленниками для создания дезинформации, распространения пропаганды или участия в других вредоносных действиях.
Конфиденциальность данных и риски для национальной безопасности
Предполагаемые связи между DeepSeek и китайским правительством, особенно его практика обмена данными с China Mobile, вызвали тревогу по поводу конфиденциальности данных и национальной безопасности. Передача личных данных американских пользователей на серверы в Китае, где они могут быть доступны должностным лицам, связанным с КПК, вызывает серьезные опасения по поводу потенциальной слежки, шпионажа и компрометации конфиденциальной информации. Тщательная проверка DeepSeek правительством США подчеркивает растущее осознание потенциальных рисков, связанных с AI-моделями, разработанными иностранными организациями, имеющими тесные связи с враждебными правительствами.
Более широкие последствия
Опасения, связанные с DeepSeek, выходят за рамки конкретных ограничений и уязвимостей этой конкретной AI-модели. Они отражают более широкие проблемы и риски, связанные с быстрым развитием и развертыванием AI-технологий. Дело DeepSeek подчеркивает важность:
- Строгое тестирование и оценка: Тщательное тестирование и оценка необходимы для выявления и устранения потенциальных слабостей, предвзятостей и уязвимостей в системе безопасности AI-моделей до их широкого развертывания.
- Прозрачность и подотчетность: Разработчики должны быть прозрачными в отношении данных, используемых для обучения их моделей, и алгоритмов, которые они используют. Они также должны нести ответственность за результаты и последствия своих AI-систем.
- Защита конфиденциальности данных и безопасности: Необходимы строгие меры защиты конфиденциальности данных и безопасности для защиты личной информации пользователей от несанкционированного доступа, неправомерного использования или эксплуатации.
- Международное сотрудничество: Международное сотрудничество имеет решающее значение для установления общих стандартов и правил для разработки и развертывания AI, гарантируя, что эти технологии используются ответственно и этично.
- Критическое мышление и медиаграмотность: Пользователям следует поощрять критическую оценку информации, генерируемой AI-моделями, и развивать навыки медиаграмотности, чтобы различать точный и вводящий в заблуждение контент.
Противоречия вокруг DeepSeek служат предостережением, напоминая нам о том, что стремление к инновациям в области AI должно быть уравновешено тщательным рассмотрением потенциальных рисков и социальных последствий.