AI 在資訊驗證中的崛起
人工智慧融入社交媒體平台並非新鮮事。X 允許用戶與 xAI 的 Grok 互動,在某種程度上,只是順應潮流。這與 Perplexity 的做法相似,Perplexity 在 X 上運行一個自動帳戶以提供類似體驗。
在 xAI 建立 Grok 在 X 上的自動化形象後,用戶迅速開始探索其功能,提出問題並尋求答案。在印度等地區,出現了一種特別令人不安的模式:人們開始使用 Grok 來驗證評論和查詢,其中許多針對特定的政治意識形態。
人工事實查核人員的擔憂
這種依賴 Grok(以及任何同類型的 AI 助理)進行事實查核的行為,引起了人們的嚴重擔憂。這些 AI 機器人的本質是,它們可以產生聽起來令人信服的回應,而不管其事實準確性如何。這並非理論上的擔憂;Grok 有散布假新聞和錯誤資訊的記錄。
一個值得注意的例子是,幾位州務卿懇求 Musk 對 Grok 進行重大修改。這一緊急請求是在 AI 助理在社交網路上產生誤導性資訊之後提出的,這在選舉前夕敲響了警鐘。
Grok 並非個案。其他著名的聊天機器人,包括 OpenAI 的 ChatGPT 和 Google 的 Gemini,也被發現產生與選舉相關的不準確資訊。假訊息研究人員在 2023 年進一步強調了濫用的可能性,揭示了像 ChatGPT 這樣的 AI 聊天機器人很容易被利用來產生包含誤導性敘述的有說服力的文本。
真實性的假象
Poynter 國際事實查核網絡 (IFCN) 主任 Angie Holan 闡明了核心問題,她說:「像 Grok 這樣的 AI 助理,它們非常擅長使用自然語言,並給出聽起來像是人類說的答案。這樣一來,即使 AI 產品可能非常錯誤,它們也聲稱具有自然性和聽起來真實的回應。這就是這裡的危險所在。」
正如 Holan 所強調的,危險在於具有欺騙性的真實外觀。AI 模仿人類語言的能力營造了一種可信的假象,即使底層資訊有缺陷或完全是捏造的。
根本區別:AI 與人工事實查核人員
AI 助理和人工事實查核人員之間的對比是鮮明的。人工事實查核人員會仔細驗證資訊,利用多個可靠的來源。他們以透明的方式運作,將他們的姓名和組織隸屬關係附加到他們的調查結果中,從而確保問責制並增強可信度。
印度非營利事實查核網站 Alt News 的聯合創始人 Pratik Sinha 指出,雖然 Grok 的回應目前可能看起來很有說服力,但其準確性從根本上受到其接收數據的限制。「誰來決定向它提供什麼數據,這就是政府干預等問題出現的地方,」他指出,強調了數據來源透明度的關鍵問題。
Sinha 強調,缺乏透明度是潛在危害的溫床。「任何缺乏透明度的東西都會造成危害,因為任何缺乏透明度的東西都可以被塑造成任何形式。」
Grok 自身的承認:濫用的可能性
具有諷刺意味的是,Grok 在 X 上的帳戶在其發布的一條回應中承認,它「可能被濫用——傳播錯誤資訊和侵犯隱私」。
儘管承認了這一點,但該自動帳戶未能向收到其答案的用戶提供任何免責聲明。這種遺漏使得用戶容易受到誤導,特別是在 AI「產生幻覺」的情況下,這是 AI 領域中一個有據可查的現象,即系統產生虛假或無意義的資訊。
Digital Futures Lab 的研究助理 Anushka Jain 詳細闡述了這一點,指出:「它可能會編造資訊以提供回應。」這種捏造資訊的傾向凸顯了 AI 在事實查核方面的固有局限性。
訓練數據的困境
另一個複雜的問題來自 Grok 的訓練數據。Grok 在多大程度上利用 X 上的帖子作為訓練材料,以及用於事實查核此類帖子的品質控制措施(如果有的話)存在不確定性。先前實施的一項更改似乎授予 Grok 對 X 用戶數據的預設訪問權限,這引發了人們對 AI 可能吸收和傳播平台上存在的錯誤資訊的擔憂。
公開與私下使用 AI 生成的資訊
另一個重大問題圍繞著像 Grok 這樣的 AI 助理在社交媒體平台上的公開性質。與通常在私人環境中進行的與 ChatGPT 等聊天機器人的互動不同,Grok 的回應是公開發布的。
這種公開傳播造成了一種情況,即使一個用戶意識到 AI 提供的資訊可能不準確,平台上的其他用戶仍然可能將其視為事實。這可能會導致嚴重的社會後果。
歷史上有先例。例如,印度目睹了由通過 WhatsApp 傳播的錯誤資訊引發的私刑事件。這些事件雖然早於生成式 AI 的廣泛應用,但卻清楚地提醒人們,不受控制的錯誤資訊會帶來現實世界的危險。GenAI 的出現,憑藉其生成看起來非常逼真的合成內容的能力,只會放大這些風險。
AI 的錯誤率
IFCN 的 Holan 警告說:「如果你看到很多這些 Grok 的答案,你會說,嘿,好吧,其中大多數是正確的,這可能是真的,但肯定會有一些是錯誤的。有多少?這不是一個小比例。一些研究表明,AI 模型的錯誤率高達 20%……當它出錯時,它可能會產生非常嚴重的後果,並帶來真實世界的影響。」
Holan 強調的 20% 的錯誤率是一個很大的數字。它強調了 AI 在需要事實準確性的情況下固有的不可靠性。而且,正如她所強調的,這些錯誤的後果可能是深遠的,遠遠超出了數位領域。
AI:一種工具,而不是人類判斷的替代品
雖然包括 xAI 在內的 AI 公司不斷改進其模型以實現更像人類的交流,但基本現實仍然存在:AI 不能也不應該取代人類的判斷,尤其是在事實查核的關鍵領域。
科技公司探索減少對人工事實查核人員依賴的途徑的趨勢令人擔憂。像 X 和 Meta 這樣的平台已經接受了眾包事實查核的概念,例如「Community Notes」等倡議。這些轉變雖然可能提供某些優勢,但也引發了人們對嚴格的事實查核標準可能被削弱的質疑。
鐘擺會擺回到人工事實查核嗎?
Alt News 的 Sinha 表達了樂觀的看法,認為人們最終將學會區分機器的輸出和人工事實查核人員的工作,最終重視後者的準確性和可靠性。
「我們最終將看到鐘擺擺回到更多的事實查核,」IFCN 的 Holan 預測。
然而,她警告說,在此期間,由於 AI 生成資訊的迅速傳播,事實查核人員可能會面臨越來越大的工作量。挑戰將是有效地對抗錯誤資訊的浪潮,確保公眾了解真相,而不是被令人信服的假象所迷惑。
核心問題:關心真相
問題的核心在於一個基本問題:「你真的關心什麼是真實的嗎?還是你只是在尋找一種聽起來和感覺起來真實但實際上並不真實的東西?因為這就是 AI 助理會給你的,」Holan 說。
這個問題概括了 AI 在資訊傳播中的興起所帶來的關鍵困境。作為一個社會,我們是否願意優先考慮便利性和真相的外觀,而不是費力地驗證事實?這個問題的答案最終將塑造資訊的未來,決定我們是屈服於一個製造出來的現實世界,還是堅持真相和準確性的原則。