Sand AI是一家中國影片新創公司,最近推出了一款開源AI模型用於影片創作,並獲得了微軟亞洲研究院創始院長李開復等知名人士的讚譽。然而,TechCrunch的測試顯示,Sand AI審查了其模型公開託管的版本,阻止生成可能激怒中國監管機構的圖像。
Magi-1:一個有前景但受限制的模型
本週稍早,Sand AI推出了Magi-1,該模型能夠透過’自迴歸’預測幀序列來生成影片。該公司聲稱,該模型可以產生高品質、可控制的鏡頭,比其開源競爭對手更準確地捕捉物理特性。
儘管Magi-1具有潛力,但目前對於大多數消費者硬體來說並不實用。它擁有240億個參數,需要四到八個Nvidia H100 GPU才能有效運行。參數是AI模型用來進行預測的內部變數。對於包括測試它的TechCrunch記者在內的許多用戶來說,Sand AI平台是評估Magi-1的唯一可行途徑。
審查的實施:哪些圖像被封鎖?
該平台需要文字提示或初始圖像來啟動影片生成。然而,並非所有提示都是允許的,TechCrunch很快就發現了這一點。Sand AI主動阻止上傳以下特徵的圖像:
- 習近平
- 天安門廣場和坦克人
- 台灣國旗
- 支持香港解放的標誌
過濾似乎發生在圖像層面,因為重新命名圖像文件並沒有繞過封鎖。
Sand AI並非唯一實施審查的公司
Sand AI的做法並非獨一無二。由總部位於上海的MiniMax運營的生成媒體平台Hailuo AI也阻止上傳政治敏感圖像,特別是那些描繪習近平的圖像。然而,Sand AI的過濾似乎特別嚴格,因為Hailuo AI允許天安門廣場的圖像。
中國AI審查的法律環境
正如Wired在1月份的一篇文章中所解釋的那樣,在中國運營的AI模型受到嚴格的信息控制。2023年的一項法律禁止這些模型生成’危害國家統一和社會和諧’的內容。這可以被解釋為與政府的歷史和政治敘事相矛盾的內容。為了遵守這些規定,中國新創公司經常透過提示級別的過濾器或微調來審查他們的模型。
審查的對比:政治與色情
有趣的是,雖然中國AI模型傾向於阻止政治表達,但與美國的同類產品相比,它們通常對色情內容的過濾較少。404最近報導稱,幾家中國公司發布的影片生成器缺乏基本的安全措施來防止創建非自願的露骨圖像。
AI審查的影響
Sand AI和其他中國AI公司採用的審查做法引發了關於中國AI發展和可訪問性未來的重要問題。這些做法不僅限制了可以生成的內容範圍,還反映了這些公司運營所受到的更廣泛的政治和社會約束。
對被封鎖圖像的詳細分析
Sand AI封鎖的具體圖像提供了一個了解中國政府敏感性的窗口。例如,對習近平圖像的審查突顯了政府對維持其領導人精心策劃的形象的重視。同樣,封鎖天安門廣場和坦克人的圖像突顯了政府為壓制對1989年抗議活動的討論和記憶所做的努力。對台灣國旗和支持香港解放的標誌的審查反映了政府在這些政治敏感問題上的立場。
審查的技術方面
Sand AI的審查在圖像層面運作的事實表明,存在一個複雜的過濾系統,可以識別和封鎖特定的視覺內容。該系統可能採用圖像識別技術來分析上傳的圖像,並將它們與禁止內容的資料庫進行比較。重新命名圖像文件沒有繞過封鎖的事實表明,該系統不僅僅依賴於文件名,而是實際分析圖像資料本身。
AI審查的全球背景
雖然中國對AI審查的做法特別嚴格,但它並不是唯一一個正在努力解決如何監管AI生成內容問題的國家。在美國和歐洲,決策者正在考慮制定法規,以解決諸如虛假信息、深度偽造和版權侵權等問題。然而,具體的做法和優先事項與中國的那些做法和優先事項有很大的不同。
開源AI的作用
Sand AI將其Magi-1模型作為開源發布的事實引發了關於創新和審查之間平衡的有趣問題。一方面,開源AI可以透過允許研究人員和開發人員自由訪問和修改代碼來促進創新和協作。另一方面,它也可能使控制技術的使用並防止其被用於惡意目的變得更加困難。
中國AI的未來
中國AI的未來可能會受到政府推動技術創新與其維護社會和政治控制的承諾之間持續緊張關係的影響。中國AI公司將需要應對複雜的監管環境,並找到以既具有創新性又符合政府規定的方式來開發和部署其技術的方法。
更廣泛的影響
Sand AI的案例突顯了AI審查對言論自由和信息獲取造成的更廣泛影響。隨著AI技術變得越來越強大和普遍,越來越重要的是要考慮其使用的倫理和社會影響,並確保它不會被用來壓制異議或限制信息獲取。
與其他平台的比較分析
將Sand AI的審查做法與Hailuo AI的做法進行比較可以看出,中國AI公司之間的審查嚴格程度存在一些差異。Hailuo AI允許天安門廣場圖像的事實表明,其審查政策不如Sand AI全面。這種差異可能反映了公司風險承受能力、對政府法規的解釋或其技術能力方面的差異。
審查的經濟影響
在中國審查AI生成內容也可能產生經濟影響。一方面,它可能會保護國內公司免受不受相同審查要求的外國公司的競爭。另一方面,它也可能扼殺創新並限制中國AI公司在全球市場上競爭的潛力。
平衡創新與控制的挑戰
中國政府面臨著平衡其促進AI創新與其維護社會和政治控制的承諾的挑戰。過多的審查可能會扼殺創新並限制中國AI公司的潛力。過少的審查可能會導致虛假信息的傳播和社會和政治穩定性的削弱。
全球AI格局
AI格局正在快速發展,新的技術和應用不斷湧現。中國是AI領域的主要參與者,但它面臨著與審查、資料隱私和人才獲取相關的挑戰。AI的未來將取決於如何應對這些挑戰,以及各國在多大程度上能夠以公平和公開的方式進行協作和競爭。
倫理考量
AI的使用引發了許多倫理考量,包括與偏見、公平、透明度和問責制相關的問題。重要的是制定AI開發和部署的倫理指南和標準,以確保以負責任和有益的方式使用它。
透明度的重要性
透明度對於建立對AI系統的信任至關重要。重要的是要了解AI模型如何運作以及它們如何做出決策。這需要提供對資料、演算法和決策過程的訪問。透明度有助於識別和減輕偏見、確保公平並促進問責制。
教育的作用
教育在使個人和社會為AI時代做好準備方面發揮著至關重要的作用。重要的是要教育人們了解AI技術、其潛在的好處和風險以及其倫理和社會影響。教育有助於促進AI素養、批判性思維和負責任的創新。
未來的工作
AI可能會對未來的就業產生重大影響。一些工作可能會自動化,而另一些工作可能會被創建或轉型。重要的是透過為工人提供在AI驅動的經濟中取得成功所需的技能和培訓來為這些變化做好準備。
協作的重要性
協作對於應對AI帶來的挑戰和機遇至關重要。這包括研究人員、開發人員、決策者和公眾之間的協作。協作有助於確保以對所有人都有利的方式開發和部署AI。
AI與國家安全
AI在國家安全中也發揮著越來越重要的作用。它被用於監視、情報收集和自主武器系統等應用。AI在國家安全中的使用引發了複雜的倫理和戰略問題,需要仔細考慮。
法規的需求
AI的監管是一個複雜且不斷發展的問題。有些人認為應該嚴格監管AI以防止潛在的危害,而另一些人則認為過度的監管可能會扼殺創新。重要的是在促進創新和防範風險之間取得平衡。
AI與醫療保健
AI有可能以多種方式改變醫療保健。它可用於改善疾病的診斷、治療和預防。AI還可用於個性化醫療保健,使其更易於訪問和負擔得起。
AI與教育
AI還可用於改善教育。它可用於個性化學習、提供回饋和自動化管理任務。AI還可用於創建新的教育工具和資源。
AI與環境
AI可用於應對氣候變化、污染和資源枯竭等環境挑戰。它可用於優化能源消耗、改善農業實踐和監測環境條件。
AI的力量
AI是一種強大的技術,有可能改變我們生活的許多方面。重要的是以負責任和合乎道德的方式開發和部署AI,以確保它使全人類受益。中國的審查做法提醒我們,AI有可能被用於控制和壓制的目的。隨著AI不斷發展,至關重要的是要繼續就其倫理影響進行對話和辯論,並確保它被用於促進自由、正義和人類福祉。一些AI模型的開源性質在這方面既提供了機遇,也提出了挑戰。雖然開源AI可以促進創新和協作,但它也使控制技術的使用和防止其被用於惡意目的變得更加困難。挑戰在於找到利用AI力量的方法,同時減輕其風險並確保其被用於造福所有人。這需要一種多層面的方法,包括倫理指南、法規、教育以及持續的對話和辯論。
國際合作的作用
AI的開發和部署是全球性的努力,需要國際合作。各國需要共同努力制定共同標準、分享最佳實踐並解決AI的倫理和社會影響。國際合作有助於確保AI被用於促進所有人的和平、安全與繁榮。
結論
Sand AI及其審查做法的故事是AI帶來的更大挑戰和機遇的一個縮影。隨著AI不斷發展並變得越來越普遍,解決其使用的倫理、社會和政治影響至關重要。AI的未來將取決於我們利用其力量造福人類的能力,同時減輕其風險並確保其被用於促進自由、正義和人類福祉。關於AI的持續對話和辯論對於塑造其未來並確保其被用於創造一個更美好的世界至關重要。