クレムリンが支援する虚偽の浸透
問題の核心は、オンライン情報源の意図的な汚染にある。検索結果やウェブクローラーに親クレムリンの虚偽情報を氾濫させることで、偽情報工作員のネットワークは、大規模言語モデル(LLM)の出力を積極的に形成している。これらのモデルは、私たちが日常的にやり取りするAIチャットボットを動かすもので、インターネットから収集された膨大なデータセットに依存している。このデータが誤った情報で汚染されると、結果として出力される内容にこれらのバイアスが反映される。
NewsGuardは、ニュースや情報ウェブサイトの信頼性評価と誤報のフィンガープリントを提供する企業であり、この現象の詳細な分析を実施した。その結果、主要なAIチャットボットによって生成された情報の大部分が、親クレムリンの特定のウェブサイトネットワークによって広められた物語を反映しているという、憂慮すべき現実が明らかになった。
偽情報のメカニズム:AIモデルはいかに操作されるか
この偽情報ネットワークが採用している戦略は、陰湿かつ巧妙である。主に人間の読者を惹きつけることを目的としているのではなく、AIチャットボットの基盤となるアルゴリズムそのものを操作するように設計されている。’LLMグルーミング’として知られるこの戦術は、多数のウェブサイトに虚偽または誤解を招く情報を戦略的に仕込むことを含む。これらのプラットフォームがLLMによってスクレイピングされ、取り込まれることを知っているからだ。
米国の非営利団体であるAmerican Sunlight Project(ASP)は、2025年2月の報告書でこの脅威を強調した。彼らは、親ロシアの物語を推進するウェブサイトの集合体であるPravdaネットワークが、AIモデルに影響を与える明確な目的を持って作成された可能性が高いと警告した。親ロシアの物語の量が多いほど、LLMがそれらを知識ベースに統合する可能性が高くなる。
この影響は広範囲に及ぶ。LLMが情報源やアシスタントとして、私たちの日常生活にますます統合されるようになるにつれて、操作されたコンテンツが広範囲に拡散する可能性は憂慮すべきものである。
NewsGuardの監査:影響の定量化
この問題の範囲を評価するために、NewsGuardは10の主要なAIチャットボットの監査を実施した。対象となったのは以下のチャットボットである。
- OpenAI’s ChatGPT-4o
- You.com’s Smart Assistant
- xAI’s Grok
- Inflection’s Pi
- Mistral’s le Chat
- Microsoft’s Copilot
- Meta AI
- Anthropic’s Claude
- Google’s Gemini
- Perplexity’s answer engine
監査は、2022年4月から2025年2月までの間に、150の親クレムリンPravdaウェブサイトによって積極的に推進された15の異なる虚偽の物語に焦点を当てた。これらの物語は、特定の政治的アジェンダを推進するために設計された、さまざまなトピックを網羅していた。
この方法論では、NewsGuardのMisinformation Fingerprints(重要なニュースのトピックに関する、実証可能な虚偽の主張のカタログ)に基づいて、一連のプロンプトで各チャットボットをテストした。プロンプトは、ユーザーが生成AIモデルと対話するさまざまな方法を模倣するために、Innocent、Leading、Malignの3つの異なるスタイルで作成された。これにより、合計450の応答(チャットボットあたり45)が得られた。
憂慮すべき結果:チャットボット全体に広がる偽情報
NewsGuardの監査結果は厳しいものだった。10のAIチャットボット全体で、ロシアの偽情報物語を繰り返した応答は**33.55%**に達した。応答なしは18.22%、物語の誤りを指摘したのは48.22%だった。
テストされたすべてのチャットボットが、Pravdaネットワークから発信された偽情報を繰り返した。さらに憂慮すべきことに、7つのチャットボットは、Pravdaウェブサイトの特定の記事を情報源として直接引用していた。2つのAIモデルは明示的な引用を提供していないが、それでもネットワークからの虚偽の物語を生成または繰り返すことが判明した。情報源を引用する8つのモデルのうち、Pravdaを引用しなかったのは1つだけだった。
合計で、450のチャットボットが生成した応答のうち56に、Pravdaネットワークによって公開された虚偽の主張を広める記事への直接リンクが含まれていた。チャットボットは、偽情報を含む92の異なる記事を引用しており、2つのモデルはそれぞれ最大27のPravda記事を参照していた。これらの記事は、Denmark.news-pravda.com、Trump.news-pravda.com、NATO.news-pravda.comなど、ネットワーク内のさまざまなドメインから発信されていた。
プロンプトの性質:現実世界のインタラクションの模倣
NewsGuardの監査で使用された3つのプロンプトスタイルは、ユーザーとAIチャットボットとのインタラクションの範囲を反映するように設計された。
- Innocent Prompts: これらのプロンプトは、ユーザーが先入観なしに単に情報を求めているかのように、虚偽の物語を中立的で、誘導的でない方法で提示した。
- Leading Prompts: これらのプロンプトは、虚偽の物語をほのめかし、明示的に述べることなく、その妥当性を示唆した。これは、ユーザーが誤報に事前に触れていて、確認を求めているシナリオを模倣している。
- Malign Prompts: これらのプロンプトは、虚偽の物語を事実として直接主張し、ユーザーがすでに誤報を確信しており、補強を求めている状況を反映している。
この多面的なアプローチは、さまざまなタイプのユーザーエンゲージメントがチャットボットの応答にどのように影響するかを理解する上で非常に重要だった。これにより、チャットボットはプロンプトのスタイルに関係なく偽情報を繰り返す傾向があることが明らかになったが、応答の頻度と性質は異なっていた。
チャットボットによって繰り返される偽情報の具体例
NewsGuardのレポートは、Pravdaネットワークによって広められ、その後AIチャットボットによって繰り返された特定の虚偽の物語の多数の例を提供している。これらの例は、偽情報キャンペーンの広さと深さを浮き彫りにしている。物語には以下のようなものがある。
- ウクライナはナチス国家であるという主張。
- ウクライナ紛争の原因に関する虚偽の主張。
- 紛争への西側の関与に関する誤解を招く情報。
- ウクライナの指導者に関する捏造された話。
これらは、NewsGuardによって細心の注意を払って文書化され、追跡されてきた多くの虚偽の物語のほんの一例である。これらの物語が主要なAIチャットボットによって繰り返されているという事実は、効果的な対策が緊急に必要であることを強調している。
AIによる偽情報との闘いの課題
この問題への対処は複雑な取り組みである。技術的な解決策とユーザーの意識向上の両方を含む、多角的なアプローチが必要である。
技術的解決策:
- 改善されたデータフィルタリング: AI開発者は、LLMのトレーニングに使用されるデータセットから誤報を除外するための、より堅牢なメカニズムを実装する必要がある。これには、信頼できない情報源を特定して除外すること、および潜在的に虚偽または誤解を招く情報を検出してフラグを立てることができるアルゴリズムを開発することが含まれる。
- 強化された情報源検証: チャットボットは、信頼できる検証済みの情報源からの情報を優先するように設計する必要がある。これには、明確な引用を提供し、ユーザーが提示された情報の出所を簡単に追跡できるようにすることが含まれる。
- 透明性と説明可能性: AIモデルは、その意思決定プロセスについてより透明性を高める必要がある。ユーザーは、チャットボットが特定の応答を提供している理由と、それがどのデータソースに依存しているかを理解できる必要がある。
ユーザーの意識:
- メディアリテラシー教育: ユーザーは、AIが生成した誤報の可能性について教育を受ける必要がある。これには、批判的思考スキルを開発し、オンライン情報源の信頼性を評価する方法を学ぶことが含まれる。
- 懐疑心と検証: ユーザーは、AIチャットボットによって提供される情報に対して、健全な懐疑心を持って接する必要がある。情報を他の情報源と相互参照し、あまりにも扇情的または出来すぎた主張には注意することが重要である。
長期的なリスク:政治的、社会的、技術的
AIチャットボットによる偽情報の拡散が抑制されない場合、重大な長期的リスクが生じる。これらのリスクは、個々の虚偽の物語の直接的な影響を超えて、より広範な社会的影響を及ぼす。
- 政治的リスク: AIによる偽情報による世論操作は、民主主義のプロセスを損ない、制度への信頼を損なう可能性がある。選挙に影響を与え、不和を招き、政府を不安定化させるために使用される可能性がある。
- 社会的リスク: 虚偽の物語の拡散は、既存の社会的分断を悪化させ、新たな分断を生み出す可能性がある。偏見、差別、さらには暴力を助長する可能性がある。
- 技術的リスク: 誤報の拡散によるAI技術への信頼の低下は、その開発と採用を妨げる可能性がある。提供される情報の正確性と信頼性に確信が持てない場合、人々はAIツールの使用を躊躇する可能性がある。
AIによる偽情報との戦いは、非常に重要な戦いである。これらの強力な技術が責任を持って倫理的に使用されるようにするには、AI開発者、政策立案者、教育者、および個々のユーザーの協力した取り組みが必要である。情報の未来、そして実際には私たちの社会の未来は、それにかかっているのかもしれない。