不準確引用的問題
Tow 數位新聞中心進行了這項研究,其結果令人擔憂。研究表明,大多數主要的 AI 搜尋引擎在正確引用新聞文章方面都存在困難。這些工具經常編造參考連結,或者在被問及來源時根本無法提供答案。
該研究以圖表形式直觀地展示了各種 AI 聊天機器人的表現,揭示了它們在提供相關引文方面普遍缺乏可靠性。值得注意的是,xAI 的 Grok 聊天機器人(Elon Musk 曾宣稱其為’最真實’的 AI)在這方面是最不準確或最不可靠的資源之一。
報告指出:
‘總體而言,聊天機器人對超過 60% 的查詢提供了不正確的答案。在不同的平台上,不準確的程度各不相同,Perplexity 對 37% 的查詢回答不正確,而 Grok 的錯誤率要高得多,對 94% 的查詢回答不正確。’
這突顯了不同 AI 工具在準確性水平上的顯著差異,其中一些工具的表現明顯遜於其他工具。
存取受限制的內容
報告揭露的另一個令人擔憂的方面與 AI 工具存取和提供來自已採取措施防止 AI 抓取的來源的資訊的能力有關。
報告指出:
‘在某些情況下,聊天機器人要麼錯誤地回答了允許它們存取其內容的發布者的查詢,要麼拒絕回答。另一方面,它們有時會正確回答關於它們本不應該有權存取其內容的發布者的查詢。’
這一觀察結果表明,某些 AI 提供商可能沒有遵守旨在阻止它們存取受版權保護材料的 robots.txt 命令。這引發了關於 AI 工具規避這些限制的道德和法律影響的問題。
越來越依賴 AI 進行研究
核心問題在於人們越來越依賴 AI 工具作為搜尋引擎,尤其是在年輕用戶中。許多現在的年輕人都是以 ChatGPT 作為他們的主要研究工具長大的。鑑於 AI 工具在提供準確資訊和可靠地教育用戶關鍵主題方面表現出的不可靠性,這種趨勢令人擔憂。
研究結果清楚地提醒人們,AI 生成的回應並不總是有價值,甚至不一定可用。真正的危險在於將這些工具宣傳為真正研究的替代品和獲取知識的捷徑。特別是對於年輕用戶而言,這可能會導致一代人資訊不足、能力不足且過度依賴可能存在缺陷的系統。
AI 是一種工具,而不是解決方案
著名商人 Mark Cuban 在 SXSW 的一次會議上有效地總結了這一挑戰。他強調:
‘AI 永遠不是答案。AI 是工具。無論你擁有什麼技能,你都可以使用 AI 來放大它們。’
Cuban 的觀點強調,雖然 AI 工具可以提供優勢,並且應該探索它們增強性能的潛力,但它們並不是獨立的解決方案。
AI 可以生成影片內容,但它缺乏開發引人入勝的敘事的能力,而這是最重要的元素。同樣,AI 可以生成程式碼來協助應用程式開發,但它無法構建實際的應用程式本身。
這些限制突顯了批判性思維和人類專業知識不可或缺的作用。AI 輸出無疑可以協助完成各種任務,但它們無法取代對人類智慧和技能的基本需求。
需要批判性評估和技能發展
特別是在這項研究的背景下,令人擔憂的是,年輕人被引導相信 AI 工具可以提供明確的答案。然而,這項研究以及許多其他研究工作一致表明,AI 在這方面並不是特別擅長。
與其將 AI 宣傳為傳統研究方法的替代品,不如將重點放在教育個人如何利用這些系統來增強他們現有的能力。為了有效地利用 AI,用戶必須首先具備強大的研究和分析能力,以及相關領域的專業知識。
更深入地探討其影響
這項研究的影響不僅限於對不準確引用的直接擔憂。它引發了更廣泛的問題,即 AI 在塑造我們對世界的理解方面的作用,以及錯誤資訊迅速傳播的可能性。
1. 對資訊來源信任的侵蝕:
當 AI 工具持續提供不正確或捏造的引文時,它會侵蝕整個資訊生態系統的信任。用戶可能會對所有來源越來越懷疑,使得區分可信和不可靠的資訊變得困難。
2. 對教育和學習的影響:
依賴 AI 工具進行研究,尤其是在年輕用戶中,會對教育和學習產生不利影響。學生可能會對學科產生膚淺的理解,缺乏有效評估資訊所需的批判性思維能力。
3. AI 開發者的道德責任:
這項研究的結果突顯了 AI 開發者的道德責任。他們必須在其系統中優先考慮準確性和透明度,並確保 AI 工具不被用於傳播錯誤資訊或破壞資訊來源的完整性。
4. 媒體素養和批判性思維的必要性:
在 AI 生成內容佔主導地位的時代,媒體素養和批判性思維能力比以往任何時候都更加重要。個人必須具備批判性地評估資訊、識別偏見以及區分可信和不可靠來源的能力。
5. AI 在研究和資訊檢索的未來:
該研究強調了持續開發和完善用於研究和資訊檢索的 AI 工具的必要性。雖然 AI 有潛力徹底改變這些領域,但解決當前的局限性並確保這些工具得到負責任和合乎道德的使用至關重要。
擴展特定關注點
讓我們進一步深入探討研究提出的一些具體問題:
A. ‘幻覺’問題:
眾所周知,AI 聊天機器人有’產生幻覺’的傾向,或者說會產生完全捏造的資訊。這在引文的背景下尤其成問題,因為準確性至關重要。研究發現 AI 工具經常編造參考連結,突顯了這個問題的嚴重性。
B. 偏見問題:
AI 模型是在龐大的數據集上訓練的,這些數據集可能包含反映社會偏見或扭曲觀點的偏見。這些偏見可能會體現在 AI 的回應中,導致不準確或誤導性的資訊。當 AI 工具被用於研究敏感或有爭議的話題時,這一點尤其令人擔憂。
C. 透明度問題:
許多 AI 模型的內部運作通常是不透明的,這使得理解它們如何得出結論變得困難。這種缺乏透明度使得識別和糾正系統中的錯誤或偏見具有挑戰性。
D. 版權問題:
研究發現,一些 AI 工具會存取已阻止它們的來源的內容,這引發了嚴重的版權問題。AI 開發者必須尊重知識產權,並確保他們的工具不被用於侵犯版權。
前進的道路:負責任的 AI 開發和教育
前進的道路需要雙管齊下的方法:負責任的 AI 開發和全面的教育。
1. 負責任的 AI 開發:
AI 開發者必須在其系統的設計和實施中優先考慮準確性、透明度和道德考量。這包括:
- 提高引文準確性: 開發技術以確保 AI 工具提供準確且可驗證的引文。
- 解決偏見: 實施方法以減輕 AI 模型中的偏見,並確保它們提供公平和平衡的資訊。
- 增強透明度: 使 AI 模型更加透明和可解釋,允許用戶理解它們如何得出結論。
- 尊重版權: 確保 AI 工具尊重知識產權,並且未經許可不得存取或使用受版權保護的材料。
2. 全面的教育:
個人,尤其是年輕人,必須接受關於 AI 工具的能力和局限性的教育。這包括:
- 促進媒體素養: 教授批判性思維技能和評估來自各種來源的資訊的能力。
- 強調研究技能: 強化傳統研究方法的重要性以及獨立驗證資訊的能力。
- 了解 AI 的局限性: 教育用戶了解 AI 產生不準確或有偏見資訊的可能性。
- 鼓勵負責任的使用: 促進負責任和合乎道德地使用 AI 工具。
通過將負責任的 AI 開發與全面的教育相結合,我們可以利用 AI 的潛力,同時減輕其風險。目標是創造一個未來,讓 AI 成為學習和發現的寶貴工具,而不是錯誤資訊和混亂的來源。這項研究的結果為我們提供了未來工作的關鍵提醒。邁向真正知情和具備 AI 素養的社會的旅程需要持續的警惕、批判性評估以及對負責任創新的承諾。