中國人工智能創業公司 DeepSeek 最新的人工智能模型在編碼、數學和一般知識的基準測試中取得了令人矚目的成績,幾乎超越了 OpenAI 的旗艦 o3 模型。但升級後的 R1,也被稱為「R1-0528」,可能不太願意回答有爭議的問題,特別是關於中國政府認為有爭議的話題。
根據 SpeechMap 背後的匿名開發者進行的測試,R1-0528 在有爭議的言論自由話題上的容忍度遠低於 DeepSeek 之前的版本,並且是「迄今為止對中國政府批评审查最為嚴格的 DeepSeek 模型」。SpeechMap 是一個比較不同模型如何處理敏感和有爭議話題的平台。
正如 Wired 在 1 月份的一篇文章中所解釋的那樣,中國的模型需要遵守嚴格的信息控制。2023 年的一項法律禁止模型生成「損害國家統一和社會和諧」的內容,這可以被解釋為與政府歷史和政治敘事相對立的內容。為了遵守規定,中國創業公司通常通過使用提示級別過濾器或微調來審查他們的模型。一項研究發現,DeepSeek 最初的 R1 拒絕回答 85% 關於中國政府認為在政治上有爭議的主題的問題。
據 xlr8harder 稱,R1-0528 審查關於諸如中國新疆地區的拘留營地等主題的答案,在這些營地中,超過一百萬維吾爾族穆斯林被任意拘留。雖然它有時會批評中國政府政策的某些方面——在 xlr8harder 的測試中,它提供了新疆營地作為侵犯人權的例子——但在被直接問及問題時,該模型經常給出中國政府的官方立場。
TechCrunch 在我們的簡短測試中也觀察到了這一點。
中國公開可用的人工智能模型,包括視頻生成模型,過去曾因審查中國政府敏感的話題而受到批評,例如天安門廣場大屠殺。12 月,人工智能開發平台 Hugging Face 的首席執行官 Clément Delangue 警告說,西方公司構建在性能良好、公開許可的中國人工智能之上的意外後果。
審查制度對人工智能模型的影響早已成為一個備受關注的問題,尤其是在地緣政治緊張的背景下。DeepSeek R1-0528 的案例突顯了在追求人工智能技術進步與維護思想自由和信息獲取之間的複雜平衡。值得深入探討的是,DeepSeek 如何應對這些挑戰,以及這對人工智能行業的未來發展意味著什麼。
審查制度的定義和形式
審查制度,廣義上指的是對信息的限制或壓制,可以採取多種形式。在人工智能領域,審查制度通常表現為:
- 內容過濾: 阻止模型生成或顯示某些類型的內容,例如涉及政治敏感話題、暴力、歧視等。
- 信息扭曲: 模型呈現的信息經過修改或歪曲,以符合某種意識形態或政治立場。
- 答案迴避: 模型拒絕回答某些問題,或者給出含糊不清、模稜兩可的答案。
- 提示工程: 通過精心設計的提示,引導模型給出符合特定意圖的回答。
DeepSeek R1-0528 的案例表明,該模型可能採用了以上多種審查手段,尤其是在涉及中國政府敏感話題時。
審查制度的原因和動機
對人工智能模型進行審查的原因和動機通常是多方面的:
- 法律法規: 一些國家或地區制定了法律法規,要求人工智能模型必須遵守特定的信息控制標準。例如,中國的相關法律禁止模型生成「損害國家統一和社會和諧」的內容。
- 政治壓力: 政府或政治團體可能會對人工智能公司施加壓力,要求其審查模型的内容,以維護其政治利益。
- 社會責任: 人工智能公司可能會出於社會責任的考慮,主動審查模型的内容,以避免傳播有害信息或引發社會動盪。
- 商業利益: 為了避免觸怒政府或公眾,人工智能公司可能會審查模型的内容,以維護其商業利益。
DeepSeek 作為一家中國人工智能公司,可能面臨著來自法律法規、政治壓力和社會責任等多方面的考慮,從而不得不對 R1-0528 進行審查。
審查制度的潛在影響
人工智能模型審查制度可能會產生以下潛在影響:
- 限制信息獲取: 審查制度會限制用戶獲取全面、客觀的信息,從而影響其判斷和決策。
- 扼殺創新: 審查制度會限制人工智能技術的發展,因為研究人員可能無法自由地探索和測試各種想法。
- 加劇社會分歧: 審查制度可能會加劇社會分歧,因為不同群體可能只能接觸到符合其自身立場的信息。
- 損害信任: 如果用戶發現人工智能模型存在審查行為,他們可能會對該模型失去信任。
DeepSeek R1-0528 的案例表明,審查制度可能會對用戶獲取關於中國政府敏感話題的信息產生限制。
應對人工智能審查制度的策略
為了應對人工智能審查制度,可以採取以下策略:
- 技術手段: 開發能夠檢測和繞過審查過濾器的技術。
- 法律訴訟: 對違反言論自由的審查行為提起法律訴訟。
- 公眾倡導: 提高公眾對人工智能審查制度的認識,並呼籲政府和企業採取行動。
- 去中心化人工智能: 開發去中心化的人工智能平台,以減少審查的可能性。
- 開源合作: 鼓勵開源合作,共同開發更開放、透明的人工智能模型。
DeepSeek 的回應
DeepSeek 尚未公開回應關於 R1-0528 審查制度的指控。如果 DeepSeek 對此做出回應,值得關注以下幾個方面:
- DeepSeek 是否承認對 R1-0528 進行了審查?
- 如果承認,DeepSeek 審查的原因和動機是什麼?
- DeepSeek 是否計劃改變其審查政策?
- DeepSeek 如何平衡技術進步與信息自由之間的關係?
DeepSeek 的回應將對人工智能行業產生重要影響。
審查制度與倫理道德探討
人工智能審查制度引發了一系列倫理道德問題,包括:
- 言論自由: 人工智能模型是否應該享有言論自由?
- 信息獲取: 用戶是否有權獲取全面、客觀的信息?
- 透明度: 人工智能公司是否有義務公開其審查政策?
- 責任: 誰應該為人工智能審查制度負責?
- 信任: 如何在人工智能時代建立信任?
這些倫理道德問題需要進行深入探討。
中國審查制度的特殊性
中國的審查制度具有其特殊性,主要表現在以下幾個方面:
- 範圍廣泛: 中國的審查範圍涵蓋政治、歷史、文化、宗教等多個領域。
- 力度嚴格: 中國的審查力度非常嚴格,甚至會涉及對個人言論的審查。
- 技術先進: 中國擁有一支龐大的審查隊伍,並採用了先進的技術手段進行審查。
- 法律支撐: 中國制定了一系列法律法規,為審查制度提供法律支撐。
這些特殊性使得在中國開發人工智能模型面臨著獨特的挑戰。
全球人工智能審查制度的比較
除了中國,其他國家也存在不同形式的人工智能審查制度,主要表現在以下幾個方面:
- 歐洲: 歐盟出台了《人工智能法案》,旨在規範人工智能的應用,並防止其被用於歧視或侵犯人權。
- 美國: 美國主要通過市場機制和行業自律來規範人工智能的發展,但也存在一些關於內容審查的爭議。
- 其他國家: 其他國家也根據自身國情制定了不同的人工智能監管政策,其中一些政策可能涉及內容審查。
通過比較不同國家的人工智能審查制度,可以更好地理解審查制度的複雜性和多樣性。
人工智能審查制度的未來趨勢
人工智能審查制度的未來趨勢可能包括以下幾個方面:
- 技術進步: 審查技術和反審查技術將不斷發展,形成貓鼠遊戲。
- 監管加強: 各國政府可能會加強對人工智能的監管,包括內容審查方面。
- 國際合作: 各國可能會加強在人工智能治理方面的國際合作,包括內容審查方面。
- 社會關注: 社會各界將更加關注人工智能審查制度的影響,並呼籲採取更負責任的做法。
審查制度對 DeepSeek 的影響
DeepSeek 作為一家中國人工智能公司,其發展受到中國審查制度的深刻影響。DeepSeek 需要在遵守中國法律法規和滿足用戶需求之間找到平衡。DeepSeek 的未來發展將取決於其如何應對審查制度帶來的挑戰。
人工智能與偏見
審查制度與人工智能偏見問題密切相關。審查制度可能導致模型只學習到部分信息,從而產生偏見。DeepSeek 需要採取措施,確保其模型能夠學習到全面、客觀的信息,並避免產生偏見。
透明度和可解釋性
為了應對審查制度帶來的挑戰,DeepSeek 應該提高其模型的透明度和可解釋性。DeepSeek 應該公開其審查政策,並解釋其模型如何處理敏感話題。這將有助於建立用戶信任,並促進人工智能的健康發展。
總結
DeepSeek R1-0528 的案例突顯了人工智能審查制度的複雜性和重要性。審查制度會對信息獲取、技術創新、社會分歧和用戶信任產生重要影響。應對審查制度需要技術手段、法律訴訟、公眾倡導、去中心化人工智能和開源合作等多種策略。DeepSeek 作為一家中國人工智能公司,需要在遵守中國法律法規和滿足用戶需求之間找到平衡。DeepSeek 應該提高其模型的透明度和可解釋性,以應對審查制度帶來的挑戰。