中國AI新創疑審查政治敏感影像

中國新創公司Sand AI似乎正在實施措施,以阻止特定的政治敏感影像出現在其線上影片生成工具中。TechCrunch的測試顯示,該公司正在審查其模型的託管版本,以防止可能激怒中國監管機構的圖片。

Sand AI最近推出了Magi-1,這是一個開放授權的影片生成AI模型。該模型受到了創新工場創辦人李開復等人的讚揚,突顯了其在該領域的潛力和創新。Magi-1透過「自迴歸」預測幀序列來生成影片。Sand AI聲稱Magi-1可以產生高品質、可控制的影片,準確捕捉物理特性,優於市場上的其他開放模型。

Magi-1的技術規格和可訪問性

Magi-1的實際應用受到其嚴苛硬體要求的限制。該模型擁有240億個參數,需要四到八個Nvidia H100 GPU才能運行。這使得Sand AI的平台成為許多使用者測試Magi-1功能的首要且往往是唯一可訪問的場所。

平台上的影片生成過程始於「提示」圖像。但是,並非所有圖像都被接受。TechCrunch的調查顯示,Sand AI的系統會阻止上傳描繪習近平、天安門廣場和「坦克人」事件、台灣國旗以及與香港解放運動相關的符號的圖像。這種過濾系統似乎在圖像層面運行,因為僅僅重新命名圖像檔案並不能繞過這些限制。

與其他中國AI平台的比較

Sand AI並非唯一一家限制將政治敏感圖像上傳到其影片生成工具的中國新創公司。總部位於上海的MiniMax的生成媒體平台Hailuo AI也封鎖了習近平的圖像。但是,Sand AI的過濾機制似乎更為嚴格。例如,Hailuo AI允許天安門廣場的圖像,而Sand AI則不允許。

這些嚴格控制的必要性源於中國的法規。正如Wired在1月份報導的那樣,中國的AI模型必須遵守嚴格的資訊控制。2023年的一項法律明確禁止AI模型生成「損害國家統一和社會和諧」的內容。這個廣泛的定義可以包括任何與政府的歷史和政治敘事相矛盾的內容。為了遵守這些法規,中國新創公司經常採用提示級別的過濾器或微調其模型以審查潛在的問題內容。

對比審查方法:政治內容與色情內容

有趣的是,儘管中國的AI模型在政治言論方面經常受到嚴格審查,但與美國的同類產品相比,它們對色情內容的限制有時較少。404最近的一份報告指出,許多中國公司的影片生成器缺乏基本的保護措施,以防止生成非自願的裸體圖像。

Sand AI和其他中國科技公司的行動突顯了AI領域技術創新、政治控制和倫理考量之間複雜的相互作用。隨著AI技術的不斷發展,關於審查、言論自由和AI開發人員責任的爭論無疑將會加劇。

深入研究Magi-1的技術層面

Magi-1代表了影片生成技術的重大進步,主要是由於其自迴歸方法。此方法涉及模型預測幀序列,從而實現更細緻和連貫的影片輸出。聲稱Magi-1可以比競爭對手更準確地捕捉物理特性尤其值得注意。這表明該模型能夠生成展現真實運動和交互的影片,使其成為娛樂、教育和科學視覺化等多種應用的寶貴工具。

該模型令人印象深刻的功能也反映在其大小和硬體要求上。Magi-1擁有240億個參數,是一個複雜且計算密集型的模型。需要多個高端GPU(如Nvidia H100)才能有效地運行它,這突顯了所需的龐大資源。這種限制意味著,雖然Magi-1是一個開源模型,但它對個別使用者和小規模組織的可訪問性受到限制。因此,Sand AI的平台成為許多人體驗和試驗這項尖端技術的重要途徑。

審查對AI發展的影響

Sand AI和其他中國AI公司實施的審查制度引發了關於AI發展未來及其對社會的影響的重要問題。雖然遵守當地法規的需求是可以理解的,但審查政治敏感內容的行為可能會產生深遠的影響。

首先,它會透過限制AI模型可以創建的範圍來扼殺創新。當開發人員被迫避免某些主題或觀點時,這可能會阻礙他們探索新想法並突破AI可能實現的界限的能力。最終,這可能會減緩AI技術的進步並限制其潛在優勢。

其次,審查制度會削弱對AI系統的信任。當使用者知道AI模型正在被操縱以符合特定的政治議程時,他們可能不太可能信任其輸出或依賴它來獲取資訊。這可能會導致懷疑和不信任,從而損害AI技術在社會中的採用和接受程度。

第三,審查制度會產生扭曲的現實觀。透過有選擇地過濾資訊和觀點,AI模型可以呈現有偏見或不完整的世界圖景。這可能會對公眾輿論產生重大影響,甚至可以用於操縱人們的信仰和行為。

更廣泛的背景:中國的AI監管

中國的監管環境在塑造AI技術的發展和部署方面發揮著至關重要的作用。2023年禁止AI模型生成「損害國家統一和社會和諧」內容的法律只是政府努力控制資訊流動和維持社會穩定的眾多例子之一。

這些法規對在中國營運的AI公司產生了重大影響。他們必須謹慎地應對複雜且往往含糊的要求,以避免觸犯法律。這可能是一項具有挑戰性的任務,因為「損害性」或「有害」內容的定義通常可以解釋。

此外,這些法規可能會對創新產生寒蟬效應。AI開發人員可能不願探索某些主題或試驗新想法,唯恐引起當局不必要的關注。這可能會扼殺創造力並限制AI技術解決世界上一些最緊迫挑戰的潛力。

AI審查的倫理困境

AI審查的實踐引發了幾個倫理困境。其中最緊迫的問題是誰應該決定什麼內容是可以接受的,什麼是不可以接受的。在中國,政府在製定這些標準方面發揮了主導作用。但是,這引發了對政治偏見和壓制不同聲音的潛在擔憂。

另一個倫理困境是透明度的問題。AI公司是否應該對其審查行為保持透明?他們是否應該披露他們用於過濾內容的標準以及他們做出決定的原因?透明度對於建立信任並確保AI系統得到負責任的使用至關重要。但是,在實踐中實施起來也可能具有挑戰性,因為它可能需要公司揭示有關其演算法和資料的敏感資訊。

另一個倫理困境是問責制的問題。當AI系統犯錯或造成損害時,應該由誰負責?應該是開發人員、營運商還是使用者?建立明確的問責制對於確保AI系統得到合乎道德和負責任的使用至關重要。

AI與審查的未來

隨著AI技術的不斷發展,關於審查的爭論可能會加劇。控制資訊的願望與促進創新需求之間的緊張關係將繼續塑造AI系統的發展和部署。

一種可能的未來是AI系統受到政府嚴格審查和控制的世界。在這種情況下,AI技術被用來加強現有的權力結構並壓制異議。這可能導致創新停滯和個人自由的衰落。

另一種可能的未來是AI系統更加開放和透明的世界。在這種情況下,AI技術被用來賦予個人權力並促進民主。這可能導致創造力和創新的蓬勃發展,以及更強烈的信任感和問責制。

AI與審查的未來將取決於我們今天做出的選擇。必須對AI技術的倫理、社會和政治影響進行周到和知情的辯論。透過共同努力,我們可以確保AI被用來創造一個更加公正和公平的世界。

駕馭AI內容監管的複雜性

Sand AI的案例突顯了圍繞AI內容監管的複雜挑戰,尤其是在具有嚴格政治和社會控制的環境中。在促進創新、遵守監管要求和堅持道德原則之間取得平衡是一項微妙的工作。隨著AI繼續滲透到我們生活的各個方面,圍繞其監管的討論必須是多方面的,包括法律、倫理和技術方面的考量。

世界各國政府都在努力建立適當的AI治理框架。這些框架旨在解決諸如偏見、隱私、安全和問責制等問題。但是,AI的快速發展使法規保持最新和相關性具有挑戰性。

此外,AI的全球性帶來了額外的複雜性。不同的國家/地區具有不同的價值觀和優先順序,這可能導致相互衝突的法規和標準。這為跨國營運的AI公司帶來了挑戰,因為它們必須應對複雜的法律和道德要求。

AI開發人員在塑造未來中的作用

AI開發人員在塑造AI的未來中發揮著至關重要的作用。他們是設計和構建AI系統的人,並且有責任確保這些系統得到合乎道德和負責任的使用。

這包括注意AI演算法中存在偏見的可能性,並採取措施來減輕它。它還包括透明化AI系統的工作方式,並為使用者提供對其決策的清晰解釋。

此外,AI開發人員應積極參與AI監管的辯論。他們擁有寶貴的見解和專業知識,可以幫助決策者做出明智的決策。

透過共同努力,AI開發人員、決策者和公眾可以確保AI被用來為所有人創造更美好的未來。

結論

Sand AI的故事及其審查實踐提醒我們,在AI技術的發展和部署中出現了複雜的挑戰和倫理考量。隨著AI的不斷發展,必須對其潛在的優勢和風險進行公開和誠實的討論。透過共同努力,我們可以確保AI被用來創造一個更加公正、公平和繁榮的世界。