Китайский AI: цензура видеоконтента

Китайский AI-видеостартап блокирует политически чувствительные изображения

Sand AI, китайский стартап, занимающийся разработкой видео на основе искусственного интеллекта, недавно запустил модель с открытым исходным кодом для создания видео, получившую высокую оценку от таких известных деятелей, как Кай-Фу Ли, основатель Microsoft Research Asia. Однако, как показывают тесты TechCrunch, Sand AI цензурирует общедоступную версию своей модели, предотвращая создание изображений, которые могут вызвать гнев китайских регуляторов.

Magi-1: Многообещающая, но ограниченная модель

Ранее на этой неделе Sand AI представила Magi-1, модель, способную генерировать видео, ‘авторегрессивно’ предсказывая последовательности кадров. Компания утверждает, что эта модель может создавать высококачественные, управляемые кадры, которые более точно отражают физику, чем ее конкуренты с открытым исходным кодом.

Несмотря на свой потенциал, Magi-1 в настоящее время не подходит для большинства потребительского оборудования. Обладая 24 миллиардами параметров, для эффективной работы ей требуется от четырех до восьми графических процессоров Nvidia H100. Параметры — это внутренние переменные, которые модели AI используют для прогнозирования. Для многих пользователей, включая журналиста TechCrunch, который ее протестировал, платформа Sand AI является единственным доступным способом оценки Magi-1.

Цензура в действии: Какие изображения блокируются?

Платформа требует текстового запроса или исходного изображения для запуска создания видео. Однако не все запросы разрешены, как быстро обнаружил TechCrunch. Sand AI активно блокирует загрузку изображений, на которых изображены:

  • Си Цзиньпин
  • Площадь Тяньаньмэнь и Человек с танком
  • Тайваньский флаг
  • Знаки, поддерживающие освобождение Гонконга

Фильтрация, по-видимому, происходит на уровне изображения, так как переименование файлов изображений не обходит блокировку.

Sand AI не одинок в реализации цензуры

Sand AI не уникальна в своем подходе. Hailuo AI, платформа для генеративного медиаконтента, управляемая шанхайской MiniMax, также предотвращает загрузку политически чувствительных изображений, в частности изображений Си Цзиньпина. Однако фильтрация Sand AI, по-видимому, особенно строгая, поскольку Hailuo AI разрешает изображения площади Тяньаньмэнь.

Правовой ландшафт AI-цензуры в Китае

Как объяснил Wired в статье, опубликованной в январе, модели AI, работающие в Китае, подлежат строгому контролю информации. Закон 2023 года запрещает этим моделям генерировать контент, который ‘ставит под угрозу национальное единство и социальную гармонию’. Это можно интерпретировать как контент, который противоречит историческим и политическим нарративам правительства. Чтобы соответствовать этим правилам, китайские стартапы часто подвергают цензуре свои модели с помощью фильтров на уровне подсказок или тонкой настройки.

Контраст в цензуре: Политика против порнографии

Интересно, что, хотя китайские модели AI, как правило, блокируют политическое выражение, у них часто меньше фильтров против порнографического контента, чем у их американских аналогов. 404 недавно сообщила, что несколько видеогенераторов, выпущенных китайскими компаниями, не имеют основных мер защиты для предотвращения создания откровенных изображений без согласия.

Последствия AI-цензуры

Практика цензуры, применяемая Sand AI и другими китайскими AI-компаниями, поднимает важные вопросы о будущем развития AI и доступности в Китае. Эта практика не только ограничивает спектр контента, который можно генерировать, но и отражает более широкие политические и социальные ограничения, в рамках которых действуют эти компании.

Подробный анализ заблокированных изображений

Конкретные изображения, заблокированные Sand AI, дают представление о чувствительности китайского правительства. Например, цензура изображений Си Цзиньпина подчеркивает стремление правительства поддерживать тщательно отобранный образ своего лидера. Точно так же блокировка изображений площади Тяньаньмэнь и Человека с танком подчеркивает усилия правительства по подавлению обсуждения и памяти о протестах 1989 года. Цензура тайваньского флага и знаков, поддерживающих освобождение Гонконга, отражает позицию правительства по этим политически чувствительным вопросам.

Технические аспекты цензуры

Тот факт, что цензура Sand AI действует на уровне изображения, предполагает наличие сложной системы фильтрации, которая может идентифицировать и блокировать конкретный визуальный контент. Эта система, вероятно, использует технологию распознавания изображений для анализа загруженных изображений и сравнения их с базой данных запрещенного контента. Тот факт, что переименование файлов изображений не обходит блокировку, указывает на то, что система не просто полагается на имена файлов, а фактически анализирует данные изображения.

Глобальный контекст AI-цензуры

Хотя подход Китая к AI-цензуре особенно строгий, это не единственная страна, которая пытается решить проблему регулирования контента, созданного AI. В Соединенных Штатах и Европе политики рассматривают правила для решения таких вопросов, как дезинформация, дипфейки и нарушение авторских прав. Однако конкретные подходы и приоритеты значительно отличаются от таковых в Китае.

Роль AI с открытым исходным кодом

Тот факт, что Sand AI выпустила свою модель Magi-1 как модель с открытым исходным кодом, поднимает интересные вопросы о балансе между инновациями и цензурой. С одной стороны, AI с открытым исходным кодом может способствовать инновациям и сотрудничеству, позволяя исследователям и разработчикам свободно получать доступ к коду и изменять его. С другой стороны, это также может затруднить контроль над использованием технологии и предотвращение ее использования в злонамеренных целях.

Будущее AI в Китае

Будущее AI в Китае, вероятно, будет определяться сохраняющимся напряжением между стремлением правительства содействовать технологическим инновациям и его приверженностью поддержанию социального и политического контроля. Китайским AI-компаниям необходимо будет ориентироваться в сложной нормативной среде и находить способы разрабатывать и развертывать свои технологии таким образом, чтобы они были одновременно инновационными и соответствовали государственным нормам.

Более широкие последствия

Дело Sand AI высвечивает более широкие последствия AI-цензуры для свободы выражения мнений и доступа к информации. Поскольку технология AI становится все более мощной и распространенной, становится все более важным учитывать этические и социальные последствия ее использования и обеспечивать, чтобы она не использовалась для подавления инакомыслия или ограничения доступа к информации.

Сравнительный анализ с другими платформами

Сравнение практики цензуры Sand AI с практикой Hailuo AI показывает, что существует некоторая разница в строгости цензуры среди китайских AI-компаний. Тот факт, что Hailuo AI разрешает изображения площади Тяньаньмэнь, предполагает, что ее политика цензуры менее всеобъемлюща, чем политика Sand AI. Эта разница может отражать различия в терпимости компаний к риску, их интерпретации государственных правил или их технических возможностях.

Экономическое воздействие цензуры

Цензура контента, созданного AI, в Китае может также иметь экономические последствия. С одной стороны, это может защитить отечественные компании от конкуренции со стороны иностранных фирм, которые не подпадают под те же требования цензуры. С другой стороны, это может также подавить инновации и ограничить потенциал китайских AI-компаний конкурировать на мировом рынке.

Задача балансирования инноваций и контроля

Китайское правительство сталкивается с задачей балансирования своего стремления содействовать инновациям в области AI со своей приверженностью поддержанию социального и политического контроля. Слишком большая цензура может подавить инновации и ограничить потенциал китайских AI-компаний. Слишком малая цензура может привести к распространению дезинформации и подрыву социальной и политической стабильности.

Глобальный ландшафт AI

Ландшафт AI быстро развивается, постоянно появляются новые технологии и приложения. Китай является крупным игроком в области AI, но сталкивается с проблемами, связанными с цензурой, конфиденциальностью данных и доступом к талантам. Будущее AI будет зависеть от того, как эти проблемы будут решены, и от того, в какой степени страны смогут сотрудничать и конкурировать честно и открыто.

Этические соображения

Использование AI поднимает ряд этических соображений, включая вопросы, связанные с предвзятостью, справедливостью, прозрачностью и подотчетностью. Важно разработать этические принципы и стандарты для разработки и развертывания AI, чтобы обеспечить его ответственное и полезное использование.

Важность прозрачности

Прозрачность необходима для укрепления доверия к системам AI. Важно понимать, как работают модели AI и как они принимают решения. Это требует предоставления доступа к данным, алгоритмам и процессам принятия решений. Прозрачность может помочь выявить и смягчить предвзятости, обеспечить справедливость и повысить подотчетность.

Роль образования

Образование играет решающую роль в подготовке людей и общества к эпохе AI. Важно обучать людей технологии AI, ее потенциальным преимуществам и рискам, а также ее этическим и социальным последствиям. Образование может помочь повысить грамотность в области AI, критическое мышление и ответственные инновации.

Будущее работы

AI, вероятно, окажет значительное влияние на будущее работы. Некоторые рабочие места могут быть автоматизированы, в то время как другие могут быть созданы или преобразованы. Важно подготовить работников к этим изменениям, предоставив им навыки и обучение, необходимые для достижения успеха в экономике, управляемой AI.

Важность сотрудничества

Сотрудничество необходимо для решения проблем и возможностей, которые представляет AI. Это включает в себя сотрудничество между исследователями, разработчиками, политиками и общественностью. Сотрудничество может помочь обеспечить разработку и развертывание AI таким образом, чтобы это было выгодно всем.

AI и национальная безопасность

AI также играет все более важную роль в национальной безопасности. Он используется для таких приложений, как наблюдение, сбор разведданных и автономные системы вооружений. Использование AI в национальной безопасности поднимает сложные этические и стратегические вопросы, которые необходимо тщательно рассмотреть.

Необходимость регулирования

Регулирование AI — сложный и развивающийся вопрос. Некоторые утверждают, что AI следует жестко регулировать для предотвращения потенциального вреда, в то время как другие утверждают, что чрезмерное регулирование может подавить инновации. Важно найти баланс между стимулированием инноваций и защитой от рисков.

AI и здравоохранение

AI может преобразить здравоохранение несколькими способами. Его можно использовать для улучшения диагностики, лечения и профилактики заболеваний. AI также можно использовать для персонализации здравоохранения и сделать его более доступным и недорогим.

AI и образование

AI также можно использовать для улучшения образования. Его можно использовать для персонализации обучения, предоставления обратной связи и автоматизации административных задач. AI также можно использовать для создания новых образовательных инструментов и ресурсов.

AI и окружающая среда

AI можно использовать для решения экологических проблем, таких как изменение климата, загрязнение и истощение ресурсов. Его можно использовать для оптимизации потребления энергии, улучшения методов ведения сельского хозяйства и мониторинга состояния окружающей среды.

Сила AI

AI — это мощная технология, которая может преобразить многие аспекты нашей жизни. Важно разрабатывать и развертывать AI ответственным и этичным образом, чтобы обеспечить его пользу для всего человечества. Практика цензуры в Китае является ярким напоминанием о возможности использования AI для целей контроля и подавления. По мере развития AI крайне важно вести постоянный диалог и дебаты о его этических последствиях и обеспечивать его использование для содействия свободе, справедливости и благополучию человека. Открытый исходный код некоторых моделей AI предоставляет как возможности, так и проблемы в этом отношении. Хотя AI с открытым исходным кодом может способствовать инновациям и сотрудничеству, он также затрудняет контроль над использованием технологии и предотвращение ее использования в злонамеренных целях. Задача состоит в том, чтобы найти способы использовать силу AI, смягчая его риски и обеспечивая его использование на благо всех. Это требует многогранного подхода, который включает в себя этические принципы, правила, образование и постоянный диалог и дебаты.

Роль международного сотрудничества

Разработка и развертывание AI — это глобальные усилия, требующие международного сотрудничества. Странам необходимо работать вместе для разработки общих стандартов, обмена передовым опытом и решения этических и социальных последствий AI. Международное сотрудничество может помочь обеспечить использование AI для содействия миру, безопасности и процветанию для всех.

Заключение

История Sand AI и ее практики цензуры — это микрокосм более крупных проблем и возможностей, которые представляет AI. По мере того как AI продолжает развиваться и становится все более распространенным, важно решать этические, социальные и политические последствия его использования. Будущее AI будет зависеть от нашей способности использовать его силу во благо, смягчая его риски и обеспечивая его использование для содействия свободе, справедливости и благополучию человека. Продолжающийся диалог и дебаты об AI необходимы для формирования его будущего и обеспечения его использования для создания лучшего мира для всех.