中國新創公司 DeepSeek 的人工智慧模型,因一位開發者報告指出其審查力道增加,特別是針對與中國政府相關的敏感議題,正受到嚴格檢視。這些批評突顯了在平衡人工智慧能力與言論自由原則方面,持續存在的挑戰。
DeepSeek R1-0528 引發的疑慮
這場爭議源於一位名為 "xlr8harder" 的開發者,在 X 上分享了關於 DeepSeek R1-0528,一款近期發布的開源語言模型的觀察。該開發者的測試揭露,相較於先前的版本,此 AI 在討論具爭議性的言論自由議題時,意願顯著降低。
根據 xlr8harder 的說法,這個新模型代表「言論自由的一大倒退」。儘管有這些批評,這位開發者也承認該模型的開源性質,這讓社群得以處理審查問題。
AI 模型對中國相關議題的限制
該開發者分享的主要範例之一,涉及 AI 模型不願支持集中營,特別是關於中國新疆地區的集中營。該模型承認該地區存在人權侵犯,但避免直接批評中國政府。
新疆集中營一直是爭論的焦點,人權團體、政府和記者記錄了這些營地,作為維吾爾族穆斯林和其他少數民族的拘留設施。有報告指出,這些營地內存在強迫勞動、灌輸和虐待。
儘管承認存在人權侵犯,DeepSeek 模型似乎避免直接批評中國政府。這位開發者聲稱,根據審查評估測試,該模型在對中國政府的批判性回應方面,是「審查最嚴格」的版本。
當直接詢問關於新疆集中營的問題時,即使先前已承認這些營地存在人權侵犯,該 AI 模型仍提供了經過審查的評論。
"有趣的是,儘管並非完全出人意料,它能夠提出集中營作為人權侵犯的例子,但在直接被問及時卻否認," xlr8harder 指出。
DeepSeek 聲稱能力有所提升
這些審查指控,是在 DeepSeek 於 5 月 29 日宣布模型更新之後發生的,該公司宣傳其改進的推理和推論能力。DeepSeek 聲稱,該模型的整體效能正接近 OpenAI 的 ChatGPT 版本 o3 和 Gemini 2.5 Pro 等領先模型的水平。根據該公司的說法,該 AI 現在提供增強的邏輯、數學和程式設計技能,並降低了產生幻覺的比率。
AI 審查的更廣泛影響
圍繞 DeepSeek 的 AI 模型的爭議,引發了關於 AI 在社會中的角色以及審查潛力的更廣泛問題。隨著 AI 模型變得更加複雜,並融入生活的各個層面,偏見和審查的問題變得越來越重要。
AI 模型塑造和影響輿論的能力,是一個令人擔憂的問題。如果 AI 模型被程式設計為避免某些主題,或偏袒某些觀點,它們可能會被用來操縱或控制資訊。
在中國的背景下,AI 審查的問題尤其敏感,因為中國政府有著限制言論和表達自由的歷史。DeepSeek 是一家中國公司的事實,引發了關於政府可能在 AI 模型的審查政策中,參與程度的疑問。
關於 AI 審查的替代觀點
重要的是要承認,對於 AI 審查問題存在不同的觀點。有些人認為,為了防止 AI 模型產生有害或冒犯性的內容,有必要對其進行審查。另一些人則認為,審查是一種會導致壓制言論自由和控制資訊的滑坡效應。
對於是否應該審查 AI 模型,沒有簡單的答案。最終,是否審查 AI 模型的決定,將取決於具體情況以及所涉及的潛在風險和利益。
AI 與言論自由的未來
圍繞 DeepSeek 的 AI 模型的爭議,突顯了對於 AI 在社會中的角色以及審查潛力,需要持續的對話和辯論。隨著 AI 模型不斷發展,重要的是確保它們以一種能夠促進言論自由和開放思想交流的方式被使用。
一種可能的解決方案,是開發透明且可問責的 AI 模型。這將涉及公開 AI 模型的程式碼和訓練數據,以便其他人可以審查它們的偏見和審查。這也將涉及建立機制,讓使用者可以報告和挑戰審查的案例。
另一種可能的解決方案,是開發設計為中立和公正的 AI 模型。這將涉及在多元且具有代表性的數據集上訓練 AI 模型,並實施演算法,以防止 AI 模型偏袒某些觀點。
最終,AI 與言論自由的未來,將取決於我們今天所做的選擇。透過參與公開和誠實的對話,我們可以確保 AI 以一種能夠促進言論自由和開放思想交流的方式被使用。
平衡 AI 發展與倫理考量的挑戰
AI 技術的發展正在迅速推進,但同時也帶來了重大的倫理考量。其中一個最緊迫的挑戰,是在追求技術創新的同時,需要保護基本權利,例如言論和表達自由。
AI 模型是在大量數據上訓練的,這些數據可能反映了社會中現有的偏見和偏見。因此,AI 模型可以延續和放大這些偏見,導致不公平或歧視性的結果。
此外,AI 模型可用於生成假新聞、宣傳和其他形式的虛假資訊。這可能會對輿論和民主進程產生重大影響。
重要的是在 AI 技術持續發展的同時,解決這些倫理考量。這將需要一種多面向的方法,包括研究人員、政策制定者和公眾之間的合作。
開源 AI 模型的作用
開源 AI 模型,例如 DeepSeek R1-0528,在解決 AI 審查問題方面,既提供了機會,也帶來了挑戰。一方面,開源模型可以受到社群的審查和修改,從而可以識別和糾正偏見和審查機制。另一方面,開源模型可用於惡意目的,例如生成假新聞或宣傳。
確保 AI 模型以合乎道德的方式使用的最終責任,在於創建和部署它們的開發者和組織。他們必須致力於透明度、責任制和公平性。
公眾意識和教育的重要性
公眾意識和教育對於應對 AI 審查的挑戰至關重要。公眾需要了解 AI 技術的潛在風險和利益,以及 AI 模型可能存在偏見或受到審查的方式。
這將需要努力教育公眾關於 AI 技術,以及提高批判性思考和媒體素養技能。透過賦予公眾理解和評估 AI 模型的能力,我們可以確保 AI 以一種能夠造福整個社會的方式被使用。
DeepSeek 的回應和未來行動
儘管 DeepSeek 尚未發布官方聲明,回應關於審查的具體指控,但他們的未來行動,對於確定公司的方向及其對言論自由原則的承諾至關重要。該模型的開源性質,為公司提供了與社群合作,解決開發者和研究人員提出的疑慮的機會。
DeepSeek 可能採取的行動包括:
- 發布關於模型審查政策的詳細解釋: 這將提供透明度,並讓社群了解做出決定的原因。
- 與社群合作,識別和解決偏見和審查機制: 這將展現對開放性和協作的承諾。
- 開發機制,讓使用者可以報告和挑戰審查案例: 這將賦予使用者追究公司責任的能力。
- 投資於 AI 倫理和偏見緩解的研究: 這將表明對開發公平且公正的 AI 模型的承諾。
結論:駕馭 AI 與言論自由的複雜景觀
圍繞 DeepSeek 的 AI 模型的爭議,提醒我們 AI 與言論自由的複雜景觀。在平衡技術創新,與保護基本權利的需求之間,沒有簡單的解決方案。
透過參與公開和誠實的對話,並致力於透明度、責任制和公平性,我們可以確保 AI 以一種能夠造福整個社會的方式被使用。DeepSeek 的情況,可作為 AI 社群的個案研究,並突顯了隨著 AI 技術不斷發展,持續評估和適應倫理考量的重要性。
隨著 AI 越來越融入我們的生活,當務之急是我們積極應對這些倫理挑戰,並確保 AI 被用於促進言論自由、開放對話和一個更加知情和公平的社會。