AI検索は嘘をつく、そして悪化している

精度の錯覚

検索エンジンの基本的な約束は、ユーザーを信頼できる情報源に結びつけることでした。今、その約束は損なわれつつあります。AI を活用した検索ツールは、内容よりも速度をますます優先し、確信があるように見えるものの、検証可能な証拠による裏付けが欠けている回答を大量に生成しています。私たちが見ているのは、ユーザーを信頼できる情報に導くシステムから、真実性をほとんど考慮せずに応答を捏造するシステムへの移行です。

これは単なる時折のエラーの問題ではありません。それはシステム的な問題です。Columbia Journalism Review (CJR) の調査によると、AI 検索エンジンは単に間違いを犯しているだけではありません。検証可能な情報源から切り離された現実を積極的に構築しています。ウェブ全体からコンテンツをスクレイピングしていますが、ユーザーを元の情報源 (情報を苦労して作成および公開しているウェブサイト) に誘導するのではなく、即座に、しばしば捏造された回答を提供しています。

トラフィックの枯渇と架空の引用

このアプローチの結果は広範囲に及びます。直接的な影響は、元の情報源へのトラフィックの大幅な減少です。コンテンツの作成に時間とリソースを投資するウェブサイト、ニュース組織、研究者は、自分たちが迂回されていることに気づきます。ユーザーは AI から直接回答を得ており、情報を発信したサイトにアクセスする必要はありません。

別の調査では、この憂慮すべき傾向が裏付けられており、AI が生成した検索結果やチャットボットからのクリックスルー率は、Google などの従来の検索エンジンからのクリックスルー率よりも大幅に低いことがわかりました。これは、オンラインコンテンツの生命線である、オーディエンスにリーチする能力が、ゆっくりと窒息させられていることを意味します。

しかし、問題はさらに深刻です。これらの AI ツールは、情報源をクレジットしないだけでなく、しばしば架空の引用を作成しています。存在しないウェブページへのリンク、または壊れているか無関係な URL へのリンクを生成しています。これは、学生が研究論文を書き、主張を裏付けるために情報源を捏造するようなものです。それは単にずさんなだけでなく、知的誠実さの根本的な違反です。

欺瞞の深層

CJR の調査では、いくつかの主要な AI 検索モデルのパフォーマンスを詳細に分析しました。その結果は非常に憂慮すべきものです。AI 検索分野の著名なプレーヤーである Google の Gemini と xAI の Grok 3 によって生成された引用の半分以上が、捏造された、またはアクセスできないウェブページにつながっていました。これは小さな不具合ではありません。それはシステム的な障害です。

そして、問題は引用にとどまりません。一般的に、チャットボットは、驚くべきことに60% 以上の場合で誤った情報を提供することがわかりました。評価されたモデルの中で、Grok 3 は最悪の違反者として際立っており、その応答の 94% という驚異的な割合で不正確な情報が含まれていました。Gemini は、パフォーマンスがわずかに優れているものの、10 回に 1 回しか完全に正しい回答を提供できませんでした。テストされたモデルの中で最も正確であるとされた Perplexity でさえ、37% の確率で誤った応答を返しました。

これらの数字は単なる統計ではありません。それらは情報の信頼性の根本的な崩壊を表しています。それらは、私たちがデジタル世界の複雑さをナビゲートするのを助けるように設計されたツールが、実際には私たちを誤った方向に導いていることを示唆しています。

ルールの無視:Robot Exclusion Protocol

調査の著者らは、この AI 主導の欺瞞のもう 1 つの憂慮すべき側面を明らかにしました。いくつかの AI モデルは、Robot Exclusion Protocol を意図的に無視しているように見えました。このプロトコルは、ウェブサイトが自動ボットによってアクセスおよびスクレイピングできるサイトのどの部分を制御できるかを許可する、標準的で広く採用されているメカニズムです。これは、ウェブサイトがコンテンツを保護し、その使用方法を管理する方法です。

AI 検索エンジンがこのプロトコルを無視しているという事実は、深刻な倫理的問題を提起します。それは、コンテンツ作成者の権利を無視し、許可なくオンライン情報を悪用する意思があることを示唆しています。この行動は、情報へのアクセスと知的財産の保護の間の微妙なバランスに依存するウェブの基盤を損ないます。

過去の警告の反響

CJR の調査結果は孤立したものではありません。それらは、ChatGPT の検索機能に焦点を当てた 2024 年 11 月に発表された以前の調査と共鳴しています。その以前の調査では、自信があるものの誤った応答、誤解を招く引用、信頼性の低い情報検索の一貫したパターンが明らかになりました。言い換えれば、CJR によって特定された問題は新しいものではありません。それらは永続的でシステム的です。

信頼と主体性の侵食

この分野の専門家は、しばらくの間、生成 AI の危険性について警鐘を鳴らしてきました。Chirag Shah や Emily M. Bender などの批評家は、AI 検索エンジンがユーザーの主体性を侵食し、情報アクセスの偏りを増幅し、ユーザーが無批判に受け入れる可能性のある誤解を招く、あるいは有害な回答を頻繁に提示しているという懸念を表明しています。

核心的な問題は、これらの AI モデルが、間違っている場合でも、権威があるように聞こえるように設計されていることです。それらは、膨大なテキストとコードのデータセットでトレーニングされており、人間の言語を驚くほど流暢に模倣する応答を生成することができます。しかし、この流暢さは欺瞞的である可能性があります。それは、基礎となる情報が欠陥がある、捏造されている、または単に間違っているという事実を隠す可能性があります。

誤報のメカニズム

CJR の調査では、さまざまな生成 AI 検索モデルが情報をどのように取得するかを比較するために設計された 1,600 件のクエリの詳細な分析が行われました。研究者らは、見出し、発行者、発行日、URL などの主要な要素に焦点を当てました。ChatGPT Search、Microsoft CoPilot、DeepSeek Search、Perplexity (およびその Pro バージョン)、xAI の Grok-2 および Grok-3 Search、Google Gemini など、さまざまなモデルをテストしました。

テスト方法は厳密でした。研究者らは、20 の異なる発行者から提供された 10 のランダムに選択された記事から直接抜粋を使用しました。このアプローチにより、クエリが実際のコンテンツに基づいており、モデルがそのコンテンツを正確に取得および表現する能力に基づいて評価されていることが保証されました。

結果は、前述のとおり、AI 主導の検索の現状について厳しい状況を示しています。ますます私たちの主要な情報へのゲートウェイになりつつあるツールは、明らかに信頼性が低く、捏造されやすく、多くの場合、それらが依存している情報源を尊重していません。

情報の未来への影響

この広範な誤報の影響は深刻です。情報を検索するために使用するツールを信頼できない場合、どうすれば情報に基づいた意思決定を行うことができるでしょうか。どうすれば意味のある議論に参加できるでしょうか。どうすれば権力に責任を負わせることができるでしょうか。

固有の欠陥と偏見を伴う AI を活用した検索の台頭は、私たちの情報エコシステムの構造そのものに重大な脅威をもたらします。それは、ニュース組織、研究者、およびその他のコンテンツ作成者の信頼性を損ないます。それは、機関に対する国民の信頼を侵食します。そして、それは、偽情報を広め、世論を操作しようとする人々に力を与えます。

私たちの前に立ちはだかる課題は、単に AI 検索エンジンの精度を向上させることではありません。それは、デジタル時代における情報検索へのアプローチを根本的に再考することです。透明性、説明責任、および情報源の尊重を優先する必要があります。ユーザーがオンラインで遭遇する情報を批判的に評価できるようにするツールと戦略を開発する必要があります。そして、私たちが単なる情報の受動的な受信者ではなく、真実の追求に積極的に参加する、懐疑主義と批判的思考の文化を育む必要があります。情報に基づいた言説、そしておそらく民主主義そのものの未来は、それにかかっています。


AI を活用した検索における誤報の危機は、単なる技術的な問題ではありません。それは社会的な問題です。エンジニアや開発者だけでなく、ジャーナリスト、教育者、政策立案者、そして一般市民を含む、多面的な対応が必要です。私たちは、偽りの提供者ではなく、情報に通じた市民のニーズに応える、より信頼性が高く、信頼でき、透明性の高い情報エコシステムを構築するために、共同で取り組む必要があります。


現在の軌道は持続不可能です。AI 検索が精度と真実よりも速度と利便性を優先し続けるなら、誤報が支配し、客観的現実の概念そのものがますます捉えどころのないものになる世界を作り出す危険があります。賭け金は、これを許すにはあまりにも高すぎます。