中国のAI動画スタートアップであるSand AIは最近、動画作成のためのオープンソースのAIモデルを発表し、Microsoft Research Asiaの創設ディレクターである李開復氏のような著名人から称賛を集めました。しかし、TechCrunchのテストにより、Sand AIはモデルの公開ホストバージョンを検閲し、中国の規制当局の怒りを買う可能性のある画像の生成を防いでいることが明らかになりました。
Magi-1:有望だが制限されたモデル
今週初め、Sand AIは、フレームのシーケンスを’自己回帰的’に予測することで動画を生成できるモデルであるMagi-1を発表しました。同社は、このモデルが、オープンソースの競合他社よりも物理学をより正確に捉えた高品質で制御可能な映像を生成できると主張しています。
その可能性にもかかわらず、Magi-1は現在、ほとんどの消費者向けハードウェアにとって非現実的です。240億のパラメータを誇り、効果的に機能するには4〜8個のNvidia H100 GPUが必要です。パラメータは、AIモデルが予測を行うために使用する内部変数です。テストを行ったTechCrunchのジャーナリストを含む多くのユーザーにとって、Sand AIプラットフォームは、Magi-1を評価するための唯一のアクセス可能な手段です。
検閲の実行:どのような画像がブロックされるのか?
このプラットフォームでは、動画生成を開始するためにテキストプロンプトまたは初期画像が必要です。しかし、TechCrunchがすぐに発見したように、すべてのプロンプトが許可されているわけではありません。Sand AIは、以下の特徴を持つ画像のアップロードを積極的にブロックしています。
- 習近平
- 天安門広場と戦車男
- 台湾の旗
- 香港の解放を支持する看板
フィルタリングは画像レベルで発生するようで、画像ファイルの名前を変更してもブロックを回避できませんでした。
検閲を実施しているのはSand AIだけではない
Sand AIのアプローチは特異なものではありません。上海を拠点とするMiniMaxが運営するジェネレーティブメディアプラットフォームであるHailuo AIも、政治的に敏感な画像、特に習近平を描いた画像のアップロードを防いでいます。しかし、Sand AIのフィルタリングは特に厳格であるようで、Hailuo AIは天安門広場の画像を許可しています。
中国におけるAI検閲の法的状況
Wiredが1月の記事で説明したように、中国で運営されているAIモデルは、厳格な情報統制の対象となります。2023年の法律では、これらのモデルが’国家の統一と社会の調和を危険にさらす’コンテンツを生成することを禁じています。これは、政府の歴史的および政治的物語と矛盾するコンテンツと解釈できます。これらの規制を遵守するために、中国のスタートアップ企業は、プロンプトレベルのフィルタリングまたはファインチューニングを通じてモデルを検閲することがよくあります。
検閲の対比:政治対ポルノ
興味深いことに、中国のAIモデルは政治的表現をブロックする傾向がありますが、アメリカのAIモデルよりもポルノコンテンツに対するフィルタが少ないことがよくあります。404は最近、中国企業がリリースしたいくつかの動画ジェネレーターには、合意なしの露骨な画像の作成を防ぐための基本的な安全対策が欠けていると報告しました。
AI検閲の含意
Sand AIやその他の中国のAI企業が採用している検閲慣行は、中国におけるAI開発とアクセシビリティの将来について重要な問題を提起します。これらの慣行は、生成できるコンテンツの範囲を制限するだけでなく、これらの企業が事業を行う上でのより広範な政治的および社会的制約を反映しています。
ブロックされた画像の詳細な分析
Sand AIによってブロックされた特定の画像は、中国政府の感受性を垣間見ることができます。たとえば、習近平の画像の検閲は、政府がその指導者の注意深くキュレーションされたイメージを維持することに重点を置いていることを強調しています。同様に、天安門広場と戦車男の画像のブロックは、政府が1989年の抗議活動の議論と記憶を抑制しようとしていることを示しています。台湾の旗と香港の解放を支持する看板の検閲は、政府がこれらの政治的に敏感な問題に対する姿勢を反映しています。
検閲の技術的側面
Sand AIの検閲が画像レベルで動作するという事実は、特定の視覚コンテンツを識別してブロックできる洗練されたフィルタリングシステムを示唆しています。このシステムは、画像認識テクノロジーを使用して、アップロードされた画像を分析し、禁止されたコンテンツのデータベースと比較している可能性があります。画像ファイルの名前を変更してもブロックを回避できないという事実は、システムが単にファイル名に依存しているのではなく、実際に画像データを分析していることを示しています。
AI検閲のグローバルな状況
中国のAI検閲へのアプローチは特に厳格ですが、AI生成コンテンツの規制方法という問題に取り組んでいるのは中国だけではありません。米国とヨーロッパでは、政策立案者が誤った情報、ディープフェイク、著作権侵害などの問題に対処するための規制を検討しています。ただし、具体的なアプローチと優先順位は、中国とは大きく異なります。
オープンソースAIの役割
Sand AIがMagi-1モデルをオープンソースとしてリリースしたという事実は、イノベーションと検閲のバランスについて興味深い問題を提起します。一方では、オープンソースAIは、研究者や開発者が自由にコードにアクセスして変更できるようにすることで、イノベーションとコラボレーションを促進できます。他方では、テクノロジーの使用を制御し、悪意のある目的で使用されることを防ぐことが難しくなる可能性もあります。
中国におけるAIの未来
中国におけるAIの未来は、技術革新を促進したいという政府の願望と、社会的および政治的統制を維持するというコミットメントとの間の継続的な緊張によって形作られる可能性があります。中国のAI企業は、複雑な規制の状況をナビゲートし、革新的でありながら政府の規制に準拠する方法でテクノロジーを開発および展開する必要があります。
より広範な含意
Sand AIの事例は、表現の自由と情報へのアクセスに対するAI検閲のより広範な含意を浮き彫りにしています。AIテクノロジーがより強力になり、普及するにつれて、その使用の倫理的および社会的含意を検討し、それが異議を抑制したり、情報へのアクセスを制限するために使用されないようにすることがますます重要になっています。
他のプラットフォームとの比較分析
Sand AIの検閲慣行とHailuo AIの検閲慣行の比較により、中国のAI企業間での検閲の厳格さにいくつかのばらつきがあることが明らかになりました。Hailuo AIが天安門広場の画像を許可しているという事実は、その検閲ポリシーがSand AIの検閲ポリシーよりも包括的ではないことを示唆しています。このばらつきは、企業の許容リスク、政府規制の解釈、または技術的能力の違いを反映している可能性があります。
検閲の経済的影響
中国におけるAI生成コンテンツの検閲は、経済的な影響も及ぼす可能性があります。一方では、同じ検閲要件の対象とならない外国企業との競争から国内企業を保護する可能性があります。他方では、イノベーションを抑制し、中国のAI企業がグローバル市場で競争する可能性を制限する可能性もあります。
イノベーションと制御のバランスを取るという課題
中国政府は、AIイノベーションを促進したいという願望と、社会的および政治的統制を維持するというコミットメントとのバランスを取るという課題に直面しています。検閲が多すぎると、イノベーションが抑制され、中国のAI企業の可能性が制限される可能性があります。検閲が少なすぎると、誤った情報の拡散と社会的および政治的安定の崩壊につながる可能性があります。
グローバルなAIの状況
AIの状況は急速に進化しており、新しいテクノロジーとアプリケーションが常に登場しています。中国はAI分野の主要なプレーヤーですが、検閲、データプライバシー、人材へのアクセスに関連する課題に直面しています。AIの未来は、これらの課題にどのように対処されるか、そして国々が公正かつオープンな方法で協力し、競争できるかどうかにかかっています。
倫理的配慮
AIの使用は、バイアス、公平性、透明性、説明責任に関連する問題を含む、多くの倫理的配慮を引き起こします。AIの開発と展開のための倫理的ガイドラインと基準を策定し、責任ある有益な方法で使用されるようにすることが重要です。
透明性の重要性
透明性は、AIシステムへの信頼を構築するために不可欠です。AIモデルがどのように機能し、どのように意思決定を行うかを理解することが重要です。これには、データ、アルゴリズム、および意思決定プロセスへのアクセスを提供する必要があります。透明性は、バイアスを特定して軽減し、公平性を確保し、説明責任を促進するのに役立ちます。
教育の役割
教育は、個人と社会がAI時代に備える上で重要な役割を果たします。AIテクノロジー、その潜在的な利点とリスク、およびその倫理的および社会的影響について人々に教育することが重要です。教育は、AIリテラシー、批判的思考、および責任あるイノベーションを促進するのに役立ちます。
仕事の未来
AIは、仕事の未来に大きな影響を与える可能性があります。一部の仕事は自動化される可能性があり、他の仕事は作成または変換される可能性があります。労働者がAI主導の経済で成功するために必要なスキルとトレーニングを提供することにより、これらの変化に備えることが重要です。
コラボレーションの重要性
コラボレーションは、AIによって提示される課題と機会に対処するために不可欠です。これには、研究者、開発者、政策立案者、および一般の人々との間のコラボレーションが含まれます。コラボレーションは、AIがすべての人に有益な方法で開発および展開されるようにするのに役立ちます。
AIと国家安全保障
AIは、国家安全保障においてもますます重要な役割を果たしています。監視、情報収集、自律型兵器システムなどのアプリケーションに使用されています。国家安全保障におけるAIの使用は、慎重に検討する必要のある複雑な倫理的および戦略的問題を引き起こします。
規制の必要性
AIの規制は、複雑で進化する問題です。潜在的な危害を防ぐためにAIを厳しく規制する必要があると主張する人もいれば、過度の規制がイノベーションを抑制する可能性があると主張する人もいます。イノベーションを促進することとリスクから保護することのバランスを取ることが重要です。
AIと医療
AIは、多くの方法で医療を変革する可能性を秘めています。病気の診断、治療、予防を改善するために使用できます。AIは、医療をパーソナライズし、よりアクセスしやすく手頃な価格にするためにも使用できます。
AIと教育
AIは、教育を改善するためにも使用できます。学習をパーソナライズし、フィードバックを提供し、管理タスクを自動化するために使用できます。AIは、新しい教育ツールとリソースを作成するためにも使用できます。
AIと環境
AIは、気候変動、汚染、資源枯渇などの環境問題に対処するために使用できます。エネルギー消費を最適化し、農業慣行を改善し、環境条件を監視するために使用できます。
AIの力
AIは、私たちの生活の多くの側面を変革する可能性を秘めた強力なテクノロジーです。すべての人類に利益をもたらすように、責任ある倫理的な方法でAIを開発および展開することが重要です。中国における検閲慣行は、制御と抑圧の目的でAIが使用される可能性を明確に示しています。AIが進化し続けるにつれて、その倫理的含意について継続的な対話と議論を行い、自由、正義、人間の幸福を促進するために使用されるようにすることが重要です。一部のAIモデルのオープンソースの性質は、この点で機会と課題の両方を提供します。オープンソースAIはイノベーションとコラボレーションを促進できますが、テクノロジーの使用を制御し、悪意のある目的で使用されることを防ぐことが難しくなる可能性もあります。課題は、そのリスクを軽減し、すべての人に利益をもたらすために使用されるようにしながら、AIの力を活用する方法を見つけることです。これには、倫理的ガイドライン、規制、教育、および継続的な対話と議論を含む多面的なアプローチが必要です。
国際協力の役割
AIの開発と展開は、国際協力を必要とするグローバルな取り組みです。各国は、共通の基準を策定し、ベストプラクティスを共有し、AIの倫理的および社会的含意に対処するために協力する必要があります。国際協力は、AIがすべての人々の平和、安全、繁栄を促進するために使用されるようにするのに役立ちます。
結論
Sand AIとその検閲慣行の物語は、AIによって提示されるより大きな課題と機会の縮図です。AIが進化し続け、普及するにつれて、その使用の倫理的、社会的、政治的含意に対処することが不可欠です。AIの未来は、その力を利用して善のために利用し、そのリスクを軽減し、自由、正義、人間の幸福を促進するために使用されるようにする私たちの能力にかかっています。AIに関する継続的な対話と議論は、その未来を形作り、すべての人にとってより良い世界を創造するために使用されるようにするために不可欠です。