Китайската стартъп компания за изкуствен интелект (AI) DeepSeek наскоро представи своя най-нов AI модел, който постигна забележителни резултати в бенчмарк тестове за кодиране, математика и общи познания, почти надминавайки водещия модел o3 на OpenAI. Но актуализираният R1, известен също като “R1-0528”, изглежда е по-малко склонен да отговаря на противоречиви въпроси, особено на теми, които китайското правителство смята за деликатни.
Според тестове, проведени от анонимен разработчик на SpeechMap, R1-0528 показва значително по-ниска толерантност към противоречиви теми, свързани със свободата на словото, в сравнение с предишните версии на DeepSeek, и е “най-цензурираният модел на DeepSeek по отношение на критиката към китайското правителство досега”. SpeechMap е платформа, която сравнява как различните модели обработват чувствителни и спорни теми.
Както Wired обясни в статия от януари, китайските модели трябва да спазват строг информационен контрол. Закон от 2023 г. забранява на моделите да генерират съдържание, което “накърнява националното единство и социалната хармония”, което може да се тълкува като съдържание, противоречащо на правителствената история и политически наративи. За да се съобразят с разпоредбите, китайските стартъпи обикновено цензурират своите модели, като използват филтри на ниво подсказка или финно настройване. Проучване установи, че първоначалният R1 на DeepSeek отказва да отговори на 85% от въпросите относно теми, считани за политически противоречиви от китайското правителство.
Според xlr8harder, R1-0528 цензурира отговорите на теми като лагерите за задържане в китайския регион Синдзян, където над един милион уйгурски мюсюлмани са били произволно задържани. Въпреки че понякога критикува определени аспекти на политиката на китайското правителство - в тестовете на xlr8harder той предложи лагерите в Синдзян като пример за нарушения на правата на човека - моделът често дава официалната позиция на китайското правителство, когато е зададен директен въпрос.
TechCrunch също наблюдава това в нашите кратки тестове.
Китайските публично достъпни AI модели, включително модели за генериране на видео, са били критикувани в миналото за цензуриране на теми, чувствителни за китайското правителство, като например клането на площад Тянанмън. През декември главният изпълнителен директор на платформата за разработка на AI Hugging Face, Клемент Деланж, предупреди за непредвидените последствия от западните компании, които се основават на добре работещи, публично лицензирани китайски AI.
Влиянието на цензурата върху AI моделите отдавна е въпрос, пораждащ безпокойство, особено в контекста на геополитическото напрежение. Случаят с DeepSeek R1-0528 подчертава сложния баланс между стремежа към технологичен напредък в AI и поддържането на свободата на мисълта и достъпа до информация. Заслужава си да се проучи по-задълбочено как DeepSeek се справя с тези предизвикателства и какво означава това за бъдещото развитие на AI индустрията.
Определение и форми на цензурата
Цензурата, в широкия смисъл на ограничаване или потискане на информация, може да приема различни форми. В областта на изкуствения интелект цензурата често се проявява като:
- Филтриране на съдържание: Блокиране на модела да генерира или показва определени видове съдържание, като например такива, които включват политически чувствителни теми, насилие, дискриминация и т.н.
- Изкривяване на информацията: Информацията, представена от модела, е модифицирана или изопачена, за да отговаря на определена идеология или политическа позиция.
- Избягване на отговори: Моделът отказва да отговори на определени въпроси или дава неясни и двусмислени отговори.
- Инженеринг на подкани: Чрез внимателно проектирани подкани моделът се насочва да дава отговори, които отговарят на определени намерения.
Случаят с DeepSeek R1-0528 показва, че моделът може да е използвал няколко от горните методи за цензура, особено когато става въпрос за теми, чувствителни за китайското правителство.
Причини и мотиви за цензура
Причините и мотивите за цензуриране на AI модели обикновено са многостранни:
- Закони и разпоредби: Някои държави или региони са установили закони и разпоредби, които изискват AI моделите да спазват определени стандарти за информационен контрол. Например, съответните закони в Китай забраняват на моделите да генерират съдържание, което “накърнява националното единство и социалната хармония”.
- Политически натиск: Правителства или политически групи могат да окажат натиск върху AI компаниите да цензурират съдържанието на своите модели, за да защитят своите политически интереси.
- Социална отговорност: AI компаниите могат да изберат да цензурират съдържанието на своите модели от съображения за социална отговорност, за да избегнат разпространението на вредна информация или предизвикването на социални вълнения.
- Търговски интереси: За да избегнат разгневяването на правителства или обществеността, AI компаниите могат да цензурират съдържанието на своите модели, за да защитят своите търговски интереси.
DeepSeek, като китайска AI компания, може да е изправена пред разглеждания от закони и разпоредби, политически натиск и социална отговорност, което я принуждава да цензурира R1-0528.
Потенциални въздействия на цензурата
Цензурата на AI модели може да има следните потенциални въздействия:
- Ограничаване на достъпа до информация: Цензурата ще ограничи достъпа на потребителите до пълна и обективна информация, като по този начин засегне тяхната преценка и вземане на решения.
- Задушаване на иновациите: Цензурата ще ограничи развитието на AI технологията, тъй като изследователите може да не могат свободно да изследват и тестват различни идеи.
- Засилване на социалните разделения: Цензурата може да засили социалните разделения, тъй като различните групи може да имат достъп само до информация, която отговаря на собствената им позиция.
- Увреждане на доверието: Ако потребителите открият, че AI модел прилага цензура, те могат да загубят доверие в този модел.
Случаят с DeepSeek R1-0528 показва, че цензурата може да ограничи потребителите в достъпа до информация за чувствителни теми за китайското правителство.
Стратегии за справяне с цензурата на AI
За да разгледаме цензуратана AI модели, могат да се предприемат следните стратегии:
- Технически средства: Разработване на технологии, които могат да откриват и заобикалят цензурните филтри.
- Съдебни дела: Подаване на съдебни дела срещу цензура, които нарушават свободата на изразяване.
- Обществена защита: Повишаване на обществената осведоменост за цензурата на AI и призоваване на правителствата и бизнеса да предприемат действия.
- Децентрализиран AI: Разработване на децентрализирани AI платформи, за да се намали вероятността от цензура.
- Сътрудничество с отворен код: Насърчаване на сътрудничеството с отворен код за съвместно разработване на по-отворени и прозрачни AI модели.
Отговорът на DeepSeek
DeepSeek все още не е отговорила публично на обвиненията за цензура на R1-0528. Ако DeepSeek отговори на това, заслужава си да обърнете внимание на следните аспекти:
- Признава ли DeepSeek, че е цензурирала R1-0528?
- Ако е така, каква е причината и мотивите на DeepSeek за цензура?
- Планира ли DeepSeek да промени своите политики за цензура?
- Как DeepSeek балансира връзката между технологичния напредък и свободата на информацията?
Отговорът на DeepSeek ще има значително въздействие върху AI индустрията.
Цензура и етични дискусии
Цензурата на AI модели повдига редица етични въпроси, включително:
- Свобода на изразяване: Трябва ли AI моделите да се ползват със свобода на изразяване?
- Достъп до информация: Имат ли потребителите право да получат пълна и обективна информация?
- Прозрачност: Имат ли AI компаниите задължението да публикуват своите политики за цензура?
- Отговорност: Кой трябва да носи отговорност за цензурата на AI?
- Доверие: Как може да се изгради доверие в AI ерата?
Тези етични въпроси трябва да бъдат проучени в дълбочина.
Специфичността на китайската цензура
Цензурата в Китай има своите характерни особености, главно в следните аспекти:
- Широк обхват: Обхватът на китайската цензура обхваща няколко области, включително политика, история, култура и религия.
- Строга интензивност: Интензивността на цензурата в Китай е много строга и дори ще включва цензура на индивидуални изказвания.
- Напреднала технология: Китай има огромен цензурен екип и използва напреднали технологични средства за цензура.
- Правна подкрепа: Китай е установил серия от закони и разпоредби, за да осигури правна подкрепа за системата за цензура.
Тези особености правят разработването на AI модели в Китай предизвикателно.
Сравнение на глобални AI цензорни системи
Освен Китай, в други страни съществуват различни форми на AI цензурни системи, главно в следните аспекти:
- Европа: ЕС издаде „Закон за AI“, предназначен да регулира прилагането на AI и да предотврати използването му за дискриминация или нарушаване на правата на човека.
- Съединени щати: Съединените щати главно регулират еволюцията на AI чрез пазарни механизми и саморегулация на индустрията, но има някои спорове относно цензурата на съдържание.
- Други държави: Други държави също са разработили различни политики за регулиране на AI в зависимост от собствените си национални условия и някои от тези политики могат да включват цензура на съдържание.
Чрез сравняване на AI цензурни системи в различни държави можем по-добре да разберем сложността и разнообразието на цензурата.
Бъдещи тенденции в цензурата на AI
Бъдещите тенденции в цензурата на AI могат да включват следните аспекти:
- Технологичен напредък: Технологиите за цензура и технологиите за борба с цензурата ще продължат да се развиват, образувайки игра на котка и мишка.
- Засилен контрол: Правителствата в различните държави могат да засилят контрола над AI, включително аспекти на цензурата на съдържание.
- Международно сътрудничество: Различните държави могат да засилят международното сътрудничество в управлението на AI, включително аспекти на цензурата на съдържание.
- Обществено внимание: Всички сектори на обществото ще обърнат повече внимание на въздействието на цензурата на AI и ще призоват да се предприемат по-отговорни практики.
Въздействие на цензурата върху DeepSeek
DeepSeek, като китайска AI компания, е дълбоко засегната от китайската система за цензура в еволюцията си. DeepSeek трябва да намери баланс между спазването на китайски закони и разпоредби и задоволяването на потребителските нужди. Бъдещето развитие на DeepSeek ще зависи от това как се справя с предизвикателствата, породени от цензурата.
AI и пристрастия
Цензурата е тясно свързана с проблемите с пристрастията в AI. Цензурата може да доведе до това, че моделите ще научат само част от информацията, причинявайки пристрастия. DeepSeek трябва да предприеме мерки, за да гарантира, че нейните модели могат да научат пълна и обективна информация и да избягват причиняването на пристрастия.
Прозрачност и обяснимост
За да се справят с предизвикателствата, произтичащи от цензурата, DeepSeek трябва да подобри прозрачността и обяснимостта на своите модели. DeepSeek трябва да публикува своите политики за цензура и да обясни как нейният модел обработва чувствителни теми. Това ще спомогне за изграждането на потребителско доверие и ще насърчи здравословното развитие на AI.
Заключение
Случаят с DeepSeek R1-0528 подчерта сложността и значението на цензурата на AI. Цензурата може да има значително въздействие върху извличането на информация, технологичните иновации, социалните разделения и потребителското доверие. За справяне с цензурата са необходими технически средства, съдебни дела, обществена защита, децентрализиран AI и сътрудничество с отворен код. DeepSeek, като китайска AI компания, трябва да намери баланс между спазването на китайски закони и разпоредби и задоволяването на потребителските нужди. DeepSeek трябва да подобри прозрачността и обяснимостта на своите модели, за да се справи с предизвикателствата, породени от цензурата.