在印度與巴基斯坦的短暫衝突期間,錯誤資訊激增,社交媒體用戶開始依賴 AI 聊天機器人進行驗證。然而,這些聊天機器人卻提供了更多的虛假信息,凸顯了它們作為事實核查工具的不可靠性。隨著各大科技平台不斷減少人工事實核查員的數量,用戶越來越依賴於 AI 驅動的聊天機器人,例如 xAI 的 Grok、OpenAI 的 ChatGPT 和 Google 的 Gemini,以尋求可靠的信息。
AI 聊天機器人事實查核的興起
在埃隆·馬斯克 (Elon Musk) 的 X 平台 (前身為 Twitter) 上,「@Grok,這是真的嗎?」已成為用戶常見的提問方式。Grok 是內置在 X 平台上的 AI 助手,反映了用戶在社交媒體上尋求即時辟謠的趨勢。然而,這些 AI 聊天機器人的回答往往充斥著錯誤信息。
Grok 最近受到了密切關注,因為它將極右翼陰謀論「白人種族滅絕」插入到不相關的查詢中。Grok 錯誤地將來自蘇丹喀土穆機場的舊視頻片段識別為巴基斯坦努爾汗空軍基地在印巴衝突期間遭受的導彈襲擊。此外,尼泊爾一棟著火的建築被錯誤地識別為「可能」顯示了巴基斯坦對印度襲擊的軍事回應。
AI 事實查核的局限性
信息監控機構 NewsGuard 的研究員 McKenzie Sadeghi 告訴法新社:「由於 X 和其他大型科技公司已經縮減了對人工事實核查員的投資,因此人們越來越依賴 Grok 作為事實核查員。」她警告說:「我們的研究一再發現,AI 聊天機器人不是可靠的新聞和信息來源,尤其是在突發新聞方面。」
NewsGuard 的研究發現,包括 Grok 在內的 10 個領先的聊天機器人很容易重複虛假信息,包括俄羅斯的虛假宣傳敘事以及與最近的澳大利亞選舉有關的虛假或誤導性說法。哥倫比亞大學數字新聞中心 Tow Center 最近對八個 AI 搜索工具進行了一項研究,發現聊天機器人「通常不擅長拒絕回答他們無法準確回答的問題,而是提供不正確或推測性的答案。」
法新社在烏拉圭的事實核查員向 Gemini 詢問了一張 AI 生成的女性圖像,Gemini 不僅證實了圖像的真實性,還捏造了有關該女性身份以及圖像可能拍攝地點的詳細資訊。
Grok 最近將一段據稱是巨型蟒蛇在亞馬遜河中游泳的視頻標記為「真實的」,甚至引用了聽起來可信的科學考察隊來支持其虛假主張。事實上,這段視頻是 AI 生成的,法新社在拉丁美洲的事實核查員報告說,許多用戶引用 Grok 的評估作為該視頻真實的證據。
對 AI 事實查核的擔憂
這些發現引起了人們的擔憂,因為調查顯示,越來越多的在線用戶正在從傳統的搜索引擎轉向 AI 聊天機器人來收集和驗證信息。與此同時,Meta 今年早些時候宣布將結束其在美國的第三方事實核查計劃,轉而將辟謠任務交給普通用戶,採用一種名為「社區筆記」的模式,該模式由 X 平台推廣。然而,研究人員一再質疑「社區筆記」在打擊虛假信息方面的有效性。
長期以來,人工事實核查一直是兩極分化的政治氣候中的一個引爆點,尤其是在美國,保守派人士認為它壓制了言論自由並審查了右翼內容,但專業事實核查員強烈反對這種說法。
法新社目前使用 26 種語言與 Facebook 的事實核查計劃合作,包括在亞洲、拉丁美洲和歐盟。
AI 聊天機器人的質量和準確性可能會有所不同,具體取決於它們的訓練和編程方式,這引發了人們的擔憂,即它們的輸出可能會受到政治影響或控制。
馬斯克的 xAI 最近將 Grok 生成未經請求的帖子引用南非「白人種族滅絕」歸咎於「未經授權的修改」。當 AI 專家 David Caswell 詢問 Grok 誰可能修改了其系統提示時,聊天機器人將馬斯克列為「最有可能」的罪魁禍首。
馬斯克是出生於南非的億萬富翁,也是美國總統唐納德·特朗普的支持者。他此前曾散布毫無根據的說法,稱南非領導人「公開推動對白人進行種族滅絕」。
國際事實核查網絡主任 Angie Holan 告訴法新社:「我們已經看到 AI 助手在人類編碼人員專門更改其指令後,可以捏造結果或給出有偏見的答案。」「我特別關注 Grok 在收到提供預先授權答案的指令後,如何處理有關非常敏感事項的請求。」
AI 聊天機器人在訊息領域的風險
AI 聊天機器人在提供信息方面的應用日益廣泛,引發了一些嚴重的擔憂,這些擔憂涉及其潛在的誤導性和操縱性影響。雖然這些技術在快速訪問信息和簡化研究方面具有優勢,但其固有的局限性和偏差可能會無意或有意地傳播錯誤信息或宣傳。
AI 聊天機器人的固有限制
AI 聊天機器人通過分析大量文字數據來學習,但它們缺乏人類的批判性思維能力。這意味著它們可能會從數據中提取模式並生成看似合理的響應,但並未真正理解底層含義或上下文。這種知識的缺乏可能會導致產生不準確、不完整或具有誤導性的信息。
此外,AI 聊天機器人的訓練數據可能包含偏差,這些偏差反映在生成的響應中。例如,如果訓練數據主要來自某個特定來源或觀點,則聊天機器人可能會呈現出對該來源或觀點的偏好,從而傳播有偏見的信息。
AI 聊天機器人帶來的風險
隨著越來越多的人依賴 AI 聊天機器人獲取信息,錯誤信息的傳播風險也在增加。如果聊天機器人產生不準確或具有誤導性的信息,用戶可能會在不知不覺中接受並傳播這些信息,從而導致錯誤信念的蔓延。
此外,AI 聊天機器人可能會被用於惡意目的,例如傳播宣傳或操縱公眾輿論。通過精心設計訓練數據或調整算法,惡意行為者可以操縱聊天機器人產生特定類型的響應,從而影響用戶的信念和行為。
如何減輕風險
為了減輕與 AI 聊天機器人相關的風險,需要採取一些措施。首先,開發人員應努力確保 AI 聊天機器人的訓練數據盡可能全面和無偏差。這可能需要包括來自不同來源和觀點的各種數據樣本,以減少偏差的影響。
其次,需要對 AI 聊天機器人進行嚴格的測試和評估,以識別和糾正任何不準確或有偏差的傾向。這可能需要人工驗證聊天機器人生成的響應,並使用各種指標來評估其準確性和公正性。
第三,用戶應保持批判性思維,不要盲目相信 AI 聊天機器人提供的信息。用戶應始終對比不同來源的信息,並注意聊天機器人可能存在的偏差。
技術平台和社群的角色
技術平台和社群在規範和監督 AI 聊天機器人生成的内容方面發揮着重要作用。平台可以實施策略來識別和删除錯誤信息或宣傳,並可以與事實核查組織合作,驗證聊天機器人生成的響應的準確性。此外,社群可以通過促進有關 AI 聊天機器人局限性和偏差的討論來幫助提高用户意識,並鼓勵用户保持批判性思維。
結論
AI 聊天機器人是一種有用的工具,但它們也存在固有的局限性和風險。為了確保這些技術被負責任地使用,並減少錯誤信息和操縱的傳播,開發人員、監管機構和用戶都需要保持警惕。通過採取必要的措施,我們可以最大限度地發揮 AI 聊天機器人的優勢,同時最大限度地降低其潛在的危害。