準確性的假象
搜尋引擎的基本承諾是將使用者與可信的來源聯繫起來。現在,這個承諾正在被侵蝕。AI 驅動的搜尋工具越來越注重速度而非實質內容,產生的答案看似有信心,但缺乏可驗證證據的基本支持。我們正在目睹的是從一個引導使用者獲取可靠資訊的系統,轉變為一個製造回應的系統,通常很少考慮其真實性。
這不僅僅是偶爾出錯的問題。這是一個系統性的問題。《哥倫比亞新聞評論》(CJR) 的研究顯示,AI 搜尋引擎不僅僅是在犯錯;它們正在積極地建構一個脫離可驗證來源的現實。它們從網路上抓取內容,但不是將使用者引導到原始來源——那些費盡心思製作和發布資訊的網站——而是提供即時的、通常是捏造的答案。
流量流失和幽靈引用
這種方法的後果是深遠的。最直接的影響是原始資訊來源的流量大幅減少。網站、新聞機構和研究人員投入時間和資源來創建內容,卻發現自己被繞過了。使用者直接從 AI 獲得答案,無需訪問產生資訊的網站。
另一項獨立研究證實了這一令人擔憂的趨勢,發現來自 AI 生成的搜尋結果和聊天機器人的點擊率遠低於來自 Google 等傳統搜尋引擎的點擊率。這意味著線上內容的命脈——接觸受眾的能力——正在慢慢被扼殺。
但問題還不止於此。這些 AI 工具不僅沒有註明來源;它們還經常創建幽靈引用。它們生成的連結指向不存在的網頁,或者指向損壞或不相關的 URL。這就像一個學生寫研究論文並發明來源來支持他們的論點。這不僅僅是草率;這是對學術誠信的根本違反。
深入探討欺騙行為
CJR 的研究仔細分析了幾個領先的 AI 搜尋模型的表現。研究結果令人深感不安。Google 的 Gemini 和 xAI 的 Grok 3——AI 搜尋領域的兩個主要參與者——產生的引用中,超過一半指向捏造或無法訪問的網頁。這不是一個小故障;這是一個系統性的失敗。
而且問題不僅限於引用。總體而言,聊天機器人在超過 60% 的情況下提供不正確的資訊。在評估的模型中,Grok 3 是最糟糕的,其 94% 的回應包含不準確之處,令人震驚。Gemini 雖然表現稍好,但仍然只能在每十次嘗試中提供一次完全正確的答案。即使是 Perplexity,在測試的模型中表現最為準確,仍然有 37% 的時間返回不正確的回應。
這些數字不僅僅是統計數據;它們代表了資訊可靠性的根本崩潰。它們表明,旨在幫助我們駕馭複雜數位世界的工具,實際上正在將我們引入歧途。
忽略規則:機器人排除協議
該研究的作者發現了這種 AI 驅動的欺騙行為的另一個令人不安的方面。一些 AI 模型似乎故意無視機器人排除協議 (Robot Exclusion Protocol)。該協議是一種標準的、廣泛採用的機制,允許網站控制自動機器人可以訪問和抓取其網站的哪些部分。這是網站保護其內容並管理其使用方式的一種方法。
AI 搜尋引擎無視此協議的事實引發了嚴重的道德問題。這表明不尊重內容創作者的權利,並願意在未經許可的情況下利用線上資訊。這種行為破壞了網路的基礎,而網路依賴於資訊獲取和知識產權保護之間的微妙平衡。
過去警告的回聲
CJR 研究的發現並非孤例。它們與 2024 年 11 月發布的一項先前研究相呼應,該研究的重點是 ChatGPT 的搜尋能力。早期的調查揭示了一種一致的模式:自信但不正確的回應、誤導性的引用和不可靠的資訊檢索。換句話說,CJR 發現的問題並不是新問題;它們是持續存在的系統性問題。
信任和自主權的侵蝕
該領域的專家一段時間以來一直在對生成式 AI 的危險性發出警告。像 Chirag Shah 和 Emily M. Bender 這樣的評論家提出了擔憂,認為 AI 搜尋引擎正在侵蝕使用者的自主權,放大資訊獲取中的偏見,並且經常呈現誤導性甚至有害的答案,而使用者可能會不加質疑地接受。
核心問題在於,這些 AI 模型被設計成聽起來很權威,即使它們是錯誤的。它們是在大量的文本和程式碼資料集上訓練的,並且能夠生成模仿人類語言的回應,其流暢程度令人驚嘆。但這種流暢性可能具有欺騙性。它可以掩蓋底層資訊有缺陷、捏造或根本不正確的事實。
錯誤資訊的機制
CJR 的研究涉及對 1,600 個查詢的詳細分析,旨在比較不同的生成式 AI 搜尋模型如何檢索資訊。研究人員重點關注關鍵要素,例如標題、出版商、出版日期和 URL。他們測試了一系列模型,包括 ChatGPT Search、Microsoft CoPilot、DeepSeek Search、Perplexity(及其 Pro 版本)、xAI 的 Grok-2 和 Grok-3 Search 以及 Google Gemini。
測試方法非常嚴格。研究人員使用了來自 20 個不同出版商的 10 篇隨機選擇的文章的直接摘錄。這種方法確保查詢基於真實世界的內容,並且模型根據其準確檢索和表示該內容的能力進行評估。
如前所述,結果描繪了 AI 驅動搜尋的嚴峻現狀。越來越成為我們獲取資訊主要途徑的工具明顯不可靠,容易捏造,並且經常不尊重它們所依賴的來源。
對資訊未來的影響
這種廣泛的錯誤資訊的影響是深遠的。如果我們不能信任我們用來查找資訊的工具,我們如何才能做出明智的決定?我們如何才能進行有意義的辯論?我們如何才能讓權力負起責任?
AI 驅動的搜尋的興起,及其固有的缺陷和偏見,對我們資訊生態系統的結構構成了重大威脅。它破壞了新聞機構、研究人員和其他內容創作者的可信度。它侵蝕了公眾對機構的信任。它賦予了那些試圖傳播虛假資訊和操縱公眾輿論的人權力。
我們面臨的挑戰不僅僅是提高 AI 搜尋引擎的準確性。而是要從根本上重新思考我們在數位時代尋找資訊的方式。我們需要優先考慮透明度、問責制和對資訊來源的尊重。我們需要開發工具和策略,讓使用者能夠批判性地評估他們在網上遇到的資訊。我們需要培養一種懷疑和批判性思維的文化,在這種文化中,我們不僅僅是被動的資訊接收者,而是積極參與追求真理的人。知情討論的未來,甚至可能是民主本身的未來,都取決於此。
AI 驅動搜尋中的錯誤資訊危機不僅僅是一個技術問題;這是一個社會問題。它需要多方面的回應,不僅涉及工程師和開發人員,還涉及記者、教育工作者、政策制定者和廣大公眾。我們必須共同努力,建立一個更可靠、更值得信賴和更透明的資訊生態系統,一個為知情公民的需求服務,而不是為虛假資訊的提供者服務的生態系統。
目前的軌跡是不可持續的。如果 AI 搜尋繼續將速度和便利性置於準確性和真實性之上,我們就有可能創造一個錯誤資訊佔據主導地位的世界,而客觀現實的概念變得越來越難以捉摸。風險實在太大了,不能讓這種情況發生。