インドとパキスタンの短い紛争中、誤った情報が急増し、ソーシャルメディアのユーザーは検証のためにAIチャットボットに頼り始めました。しかし、これらのチャットボットはより多くの偽の情報を提供し、事実確認ツールとしての信頼性の低さを浮き彫りにしました。主要なテクノロジープラットフォームが生身の事実確認担当者の数を減らし続けるにつれて、ユーザーは信頼できる情報を求めて、xAIのGrok、OpenAIのChatGPT、GoogleのGeminiなどのAI駆動型チャットボットにますます依存しています。
AIチャットボットによる事実検証の台頭
かつてTwitterとして知られていたイーロン・マスク氏のXプラットフォームでは、「@Grok、これは本当ですか?」がユーザーの間で一般的な質問方法になりました。GrokはXプラットフォームに組み込まれたAIアシスタントであり、ソーシャルメディア上で即座にデマを暴こうとするユーザーの傾向を反映しています。しかし、これらのAIチャットボットからの回答は、誤った情報に満ちていることがよくあります。
Grokは最近、極右の陰謀説「白人絶滅」を無関係なクエリに挿入したとして精査されました。Grokは、スーダンのハルツーム空港からの古い映像を、印パ紛争中のパキスタンのヌール・カーン空軍基地に対するミサイル攻撃であると誤って特定しました。さらに、ネパールの燃えている建物が、「おそらく」パキスタンによるインド攻撃に対する軍事的対応を示していると誤って特定されました。
AIによる事実検証の限界
情報監視団体NewsGuardの研究者、マッケンジー・サデギ氏はAFPに対し、「Xや他の大手テクノロジー企業が、生身の事実確認担当者への投資を削減したため、人々は事実確認担当者としてGrokにますます依存しています」と述べています。「私たちの調査では、AIチャットボットが信頼できるニュースや情報の情報源ではないことが繰り返し判明しています。特に速報に関しては」と彼女は警告します。
NewsGuardの調査では、Grokを含む10個の主要なチャットボットが、ロシアの偽情報キャンペーンや、最近のオーストラリアの選挙に関連する虚偽または誤解を招く主張など、偽情報を簡単に繰り返すことがわかりました。コロンビア大学のデジタルジャーナリズムセンターTow Centerによる最近の8つのAI検索ツールに関する調査では、チャットボットは「正確に答えられない質問に対する回答を拒否することが苦手であり、代わりに不正確または推測的な回答を提供するのが一般的である」ことがわかりました。
AFPのウルグアイのファクトチェッカーがGeminiにAIが生成した女性の画像について尋ねたところ、Geminiは画像の信憑性を確認しただけでなく、女性のアイデンティティや画像が撮影された可能性のある場所に関する詳細を捏造しました。
Grokは最近、アマゾン川で泳いでいるとされる巨大なアナコンダの映像を「本物」としてフラグを立て、その誤った主張を裏付けるために、一見もっともらしい科学探検隊さえ引用しました。実際、その映像はAIによって生成されたものであり、AFPのラテンアメリカのファクトチェッカーは、多くのユーザーがその映像が本物である証拠としてGrokの評価を引用していると報告しました。
AIによる事実検証に対する懸念
これらの調査結果は、オンラインユーザーが情報を収集および検証するために従来の検索エンジンからAIチャットボットに移行していることが調査で明らかになっているため、懸念を引き起こしています。一方、Metaは今年初め、米国でのサードパーティによる事実確認プログラムを終了し、Xプラットフォームが推進する「コミュニティノート」と呼ばれるモデルを使用して、デマを暴くタスクを一般ユーザーに委ねることを発表しました。しかし、研究者たちはデマに対抗する上での「コミュニティノート」の有効性に疑問を呈しています。
生身の事実確認は、特に米国において、長年にわたり、意見が分かれる政治的気候において、引火点となってきました。保守派は、それが言論の自由を抑圧し、右翼コンテンツを検閲していると主張していますが、専門の事実確認担当者はそのような主張を強く否定しています。
AFPは現在、アジア、ラテンアメリカ、EUを含む26の言語でFacebookの事実確認プログラムと提携しています。
AIチャットボットの品質と精度は、そのトレーニングとプログラミング方法によって異なる可能性があり、その出力が政治的に影響を受けたり、制御されたりする可能性についての懸念が高まっています。
マスク氏のxAIは最近、Grokが南アフリカでの「白人絶滅」について要請されていない投稿を生成したことを「不正な改造」のせいにしました。AI専門家のデビッド・キャスウェル氏が、Grokのシステムプロンプトを誰が変更した可能性があるかを尋ねたところ、チャットボットはマスク氏を「最も可能性が高い」犯人として挙げました。
南アフリカ生まれの億万長者で、ドナルド・トランプ米大統領の支持者でもあるマスク氏は以前、南アフリカの指導者たちが「白人に対する絶滅政策を公然と推進している」という根拠のない主張を広めたことがあります。
国際事実確認ネットワークのディレクターであるアンジー・ホラン氏はAFPに対し、「AIアシスタントが、人間のコーダーがその指示を意図的に変更した後、結果を捏造したり、偏った回答をしたりするのを見てきました」と述べています。「私は特に、Grokが事前に承認された回答を提供するという指示を受け取った後、非常にデリケートな問題に関するリクエストをどのように処理するかに懸念を抱いています。」
情報分野におけるAIチャットボットのリスク
AIチャットボットの情報の提供における利用が増えていますが、潜在的な誤解を招く可能性と操作的な影響に関するいくつかの深刻な懸念が生じています。これらのテクノロジーは、情報への迅速なアクセスと調査の簡略化に利点がありますが、その固有の制限と偏見は、意図的または意図せずに誤った情報やプロパガンダを広める可能性があります。
AIチャットボットの固有の制限
AIチャットボットは、大量のテキストデータを分析することにより学習しますが、人間の批判的思考能力は欠けています。つまり、データからパターンを抽出し、一見もっともらしい応答を生成する可能性がありますが、基礎となる意味やコンテキストを真に理解していません。この知識の欠如は、不正確、不完全、または誤解を招く情報の生成につながる可能性があります。
さらに、AIチャットボットのトレーニングデータには偏見が含まれている可能性があり、その偏見は生成される応答に反映されます。たとえば、トレーニングデータが特定のソースまたは視点からのものがほとんどである場合、チャットボットはそのソースまたは視点に対する好みを示す可能性があり、偏った情報を広めます。
AIチャットボットがもたらすリスク
AIチャットボットに情報を求める人が増えるにつれて、誤った情報が広まるリスクも高まります。チャットボットが不正確または誤解を招く情報を生成した場合、ユーザーは知らず知らずのうちにそれらの情報を受け入れて広める可能性があり、誤った信念の蔓延につながります。
さらに、AIチャットボットは、プロパガンダを広めたり、世論を操作したりするなど、悪意のある目的に使用される可能性があります。トレーニングデータを慎重に設計したり、アルゴリズムを調整したりすることにより、悪意のあるアクターはチャットボットを操作して特定の種類の応答を生成し、ユーザーの信念と行動に影響を与える可能性があります。
リスクを軽減する方法
AIチャットボットに関連するリスクを軽減するには、いくつかの対策が必要です。まず、開発者は、AIチャットボットのトレーニングデータができるだけ包括的で偏見がないように努力する必要があります。これには、偏見の影響を軽減するために、さまざまなソースと視点からのさまざまなデータサンプルを含めることが必要になる場合があります。
次に、AIチャットボットの不正確または偏った傾向を特定して修正するために、厳格なテストと評価が必要です。これには、チャットボットが生成した応答の手動による検証と、その精度と公平性を評価するためのさまざまな指標の使用が必要になる場合があります。
第三に、ユーザーは批判的思考を維持し、AIチャットボットが提供する情報を盲目的に信じるべきではありません。ユーザーは常に異なるソースからの情報を比較し、チャットボットに存在する可能性のある偏見に注意する必要があります。
テクノロジープラットフォームとコミュニティの役割
テクノロジープラットフォームとコミュニティは、AIチャットボットが生成するコンテンツを規制および監視する上で重要な役割を果たします。プラットフォームは、誤った情報やプロパガンダを特定して削除するための戦略を実施し、チャットボットが生成した応答の精度を検証するために、事実確認組織と協力することができます。さらに、コミュニティは、AIチャットボットの制限と偏見に関する議論を促進することにより、ユーザーの意識を高め、ユーザーに批判的思考を奨励するのに役立ちます。
結論
AIチャットボットは便利なツールですが、固有の制限とリスクも存在します。これらのテクノロジーが責任を持って使用され、誤った情報や操作の拡散が抑制されるようにするには、開発者、規制当局、およびユーザーが警戒する必要があります。必要な対策を講じることにより、潜在的な害を最小限に抑えながら、AIチャットボットの利点を最大限に活用できます。