중국 AI 스타트업, 정치적 검열 논란

중국 AI 비디오 스타트업, 정치적으로 민감한 이미지 검열 논란

중국 스타트업인 Sand AI가 온라인 비디오 생성 도구에서 특정 정치적으로 민감한 이미지를 차단하는 조치를 시행하고 있는 것으로 보입니다. 이는 TechCrunch의 테스트 결과에 따른 것으로, 회사가 중국 규제 당국을 자극할 수 있는 이미지를 방지하기 위해 모델의 호스팅 버전을 검열하고 있음을 시사합니다.

Sand AI는 최근 공개 라이선스 비디오 생성 AI 모델인 Magi-1을 출시했습니다. 이 모델은 Microsoft Research Asia의 설립 이사인 Kai-Fu Lee와 같은 인물로부터 잠재력과 혁신성을 인정받았습니다. Magi-1은 프레임 시퀀스를 ‘자동 회귀적으로’ 예측하여 비디오를 생성합니다. Sand AI는 Magi-1이 시장에 출시된 다른 개방형 모델보다 뛰어난 고품질의 제어 가능한 영상을 정확하게 캡처할 수 있다고 주장합니다.

Magi-1의 기술 사양 및 접근성

Magi-1의 실제 적용은 까다로운 하드웨어 요구 사항으로 인해 제한됩니다. 이 모델은 240억 개의 매개변수를 가지고 있으며 작동하려면 4~8개의 Nvidia H100 GPU가 필요합니다. 이로 인해 Sand AI의 플랫폼은 많은 사용자가 Magi-1의 기능을 테스트할 수 있는 주요하고 종종 유일한 접근 가능한 장소가 됩니다.

플랫폼의 비디오 생성 프로세스는 ‘프롬프트’ 이미지로 시작됩니다. 그러나 모든 이미지가 허용되는 것은 아닙니다. TechCrunch의 조사 결과 Sand AI의 시스템은 시진핑 이미지, 천안문 광장과 ‘탱크맨’ 사건, 대만 국기, 홍콩 해방 운동과 관련된 상징 업로드를 차단하는 것으로 나타났습니다. 이 필터링 시스템은 이미지 수준에서 작동하는 것으로 보이며, 이미지 파일 이름을 바꾸는 것만으로는 제한을 우회할 수 없습니다.

다른 중국 AI 플랫폼과의 비교

Sand AI는 비디오 생성 도구에 정치적으로 민감한 이미지 업로드를 제한하는 유일한 중국 스타트업이 아닙니다. 상하이에 본사를 둔 MiniMax의 생성 미디어 플랫폼인 Hailuo AI도 시진핑 이미지를 차단합니다. 그러나 Sand AI의 필터링 메커니즘이 더 엄격한 것으로 보입니다. 예를 들어 Hailuo AI는 Sand AI가 허용하지 않는 천안문 광장 이미지를 허용합니다.

이러한 엄격한 통제의 필요성은 중국 규정에 뿌리를 두고 있습니다. Wired가 1월에 보도한 바와 같이 중국의 AI 모델은 엄격한 정보 통제를 준수해야 합니다. 2023년 법률은 AI 모델이 ‘국가의 통일과 사회적 조화를 해치는’ 콘텐츠를 생성하는 것을 명시적으로 금지합니다. 이 광범위한 정의에는 정부의 역사적, 정치적 내러티브와 모순되는 모든 콘텐츠가 포함될 수 있습니다. 이러한 규정을 준수하기 위해 중국 스타트업은 종종 프롬프트 수준 필터를 사용하거나 잠재적으로 문제가 있는 콘텐츠를 검열하도록 모델을 미세 조정합니다.

검열 접근 방식의 대조: 정치적 콘텐츠 대 포르노 콘텐츠

흥미롭게도 중국 AI 모델은 정치적 발언에 관해서는 종종 심하게 검열되지만 미국 모델에 비해 포르노 콘텐츠에 대한 제한이 적은 경우가 있습니다. 404의 최근 보고서에 따르면 많은 중국 회사의 비디오 생성기는 비동의 누드 이미지 생성을 방지하기 위한 기본적인 안전 장치가 부족합니다.

Sand AI 및 기타 중국 기술 회사의 조치는 AI 분야에서 기술 혁신, 정치적 통제 및 윤리적 고려 사항 간의 복잡한 상호 작용을 강조합니다. AI 기술이 계속 발전함에 따라 검열, 표현의 자유 및 AI 개발자의 책임에 대한 논쟁은 의심할 여지 없이 심화될 것입니다.

Magi-1의 기술적 측면에 대한 심층 분석

Magi-1은 주로 자동 회귀적 접근 방식으로 인해 비디오 생성 기술의 중요한 발전을 나타냅니다. 이 방법은 모델이 프레임 시퀀스를 예측하는 것을 포함하며, 이를 통해 보다 미묘하고 일관된 비디오 출력이 가능합니다. Magi-1이 경쟁 오픈 모델보다 물리학을 더 정확하게 캡처할 수 있다는 주장은 특히 주목할 만합니다. 이는 모델이 현실적인 움직임과 상호 작용을 나타내는 비디오를 생성할 수 있음을 시사하며, 엔터테인먼트, 교육 및 과학적 시각화를 포함한 다양한 응용 분야에 유용한 도구입니다.

모델의 인상적인 기능은 크기와 하드웨어 요구 사항에도 반영되어 있습니다. 240억 개의 매개변수를 가진 Magi-1은 복잡하고 계산 집약적인 모델입니다. Nvidia H100과 같은 여러 고급 GPU가 필요하다는 것은 효과적으로 실행하는 데 필요한 상당한 리소스를 강조합니다. 이러한 제한은 Magi-1이 오픈 소스 모델이지만 개별 사용자와 소규모 조직에 대한 접근성이 제한됨을 의미합니다. 따라서 Sand AI의 플랫폼은 많은 사람들이 이 최첨단 기술을 경험하고 실험할 수 있는 중요한 관문 역할을 합니다.

AI 개발에 대한 검열의 영향

Sand AI 및 기타 중국 AI 회사가 구현하는 검열 관행은 AI 개발의 미래와 사회에 미치는 영향에 대한 중요한 질문을 제기합니다. 현지 규정을 준수해야 할 필요성은 이해할 수 있지만 정치적으로 민감한 콘텐츠를 검열하는 행위는 광범위한 결과를 초래할 수 있습니다.

첫째, AI 모델이 만들 수 있는 범위를 제한함으로써 혁신을 억누를 수 있습니다. 개발자가 특정 주제나 관점을 피하도록 강요받으면 새로운 아이디어를 탐색하고 AI로 가능한 것의 경계를 넓히는 능력이 저해될 수 있습니다. 이는 궁극적으로 AI 기술의 발전을 늦추고 잠재적인 이점을 제한할 수 있습니다.

둘째, 검열은 AI 시스템에 대한 신뢰를 약화시킬 수 있습니다. 사용자가 AI 모델이 특정 정치적 의제에 맞게 조작되고 있다는 것을 알게 되면 출력을 신뢰하거나 정보에 의존할 가능성이 줄어들 수 있습니다. 이는 회의론과 불신으로 이어져 사회에서 AI 기술의 채택과 수용을 저해할 수 있습니다.

셋째, 검열은 현실에 대한 왜곡된 시각을 만들 수 있습니다. 정보를 선별적으로 필터링하고 관점을 선택적으로 제시함으로써 AI 모델은 세상에 대한 편향되거나 불완전한 그림을 제시할 수 있습니다. 이는 여론에 큰 영향을 미칠 수 있으며 사람들의 신념과 행동을 조작하는 데 사용될 수도 있습니다.

더 넓은 맥락: 중국의 AI 규제

중국의 규제 환경은 AI 기술의 개발과 배포를 형성하는 데 중요한 역할을 합니다. AI 모델이 ‘국가의 통일과 사회적 조화를 해치는’ 콘텐츠를 생성하는 것을 금지하는 2023년 법률은 정부가 정보의 흐름을 통제하고 사회적 안정을 유지하기 위한 노력의 한 예일 뿐입니다.

이러한 규정은 중국에서 운영되는 AI 회사에 큰 영향을 미칩니다. 그들은 법을 위반하는 것을 피하기 위해 복잡하고 종종 모호한 요구 사항을 신중하게 탐색해야 합니다. ‘손상’ 또는 ‘유해’ 콘텐츠를 구성하는 것에 대한 정의가 종종 해석의 여지가 있기 때문에 이는 어려운 작업이 될 수 있습니다.

또한 규정은 혁신에 냉각 효과를 일으킬 수 있습니다. AI 개발자는 당국의 원치 않는 관심을 끌지 않기 위해 특정 주제를 탐색하거나 새로운 아이디어를 실험하는 것을 주저할 수 있습니다. 이는 창의성을 억누르고 세계에서 가장 시급한 과제를 해결할 수 있는 AI 기술의 잠재력을 제한할 수 있습니다.

AI 검열의 윤리적 딜레마

AI 검열 관행은 여러 가지 윤리적 딜레마를 제기합니다. 가장 시급한 것 중 하나는 어떤 콘텐츠가 허용되고 어떤 콘텐츠가 허용되지 않는지 누가 결정해야 하는가입니다. 중국의 경우 정부가 이러한 기준을 설정하는 데 주도적인 역할을 해왔습니다. 그러나 이는 정치적 편견의 가능성과 반대 의견의 억압에 대한 우려를 제기합니다.

또 다른 윤리적 딜레마는 투명성 문제입니다. AI 회사는 검열 관행에 대해 투명해야 합니까? 콘텐츠를 필터링하는 데 사용하는 기준과 결정에 대한 이유를 공개해야 합니까? 투명성은 신뢰를 구축하고 AI 시스템이 책임감 있게 사용되도록 하는 데 필수적입니다. 그러나 기업이 알고리즘과 데이터에 대한 민감한 정보를 공개해야 할 수 있으므로 실제로 구현하는 데 어려움이 있을 수도 있습니다.

더 나아가 윤리적 딜레마는 책임 문제입니다. AI 시스템이 실수를 하거나 해를 끼칠 때 누가 책임을 져야 합니까? 개발자, 운영자 또는 사용자여야 합니까? AI 시스템이 윤리적이고 책임감 있게 사용되도록 하려면 명확한 책임 라인을 설정하는 것이 필수적입니다.

AI와 검열의 미래

AI 기술이 계속 발전함에 따라 검열에 대한 논쟁은 더욱 심화될 것입니다. 정보를 통제하려는 욕구와 혁신을 촉진해야 할 필요성 사이의 긴장은 AI 시스템의 개발과 배포를 계속 형성할 것입니다.

가능한 미래는 AI 시스템이 정부에 의해 심하게 검열되고 통제되는 세상입니다. 이 시나리오에서 AI 기술은 기존 권력 구조를 강화하고 반대 의견을 억압하는 데 사용됩니다. 이는 혁신을 억누르고 개인의 자유를 감소시킬 수 있습니다.

또 다른 가능한 미래는 AI 시스템이 더 개방적이고 투명한 세상입니다. 이 시나리오에서 AI 기술은 개인에게 권한을 부여하고 민주주의를 증진하는 데 사용됩니다. 이는 창의성과 혁신의 번성뿐만 아니라 더 큰 신뢰감과 책임감으로 이어질 수 있습니다.

AI와 검열의 미래는 오늘 우리가 내리는 선택에 달려 있습니다. AI 기술의 윤리적, 사회적, 정치적 의미에 대한 사려 깊고 정보에 입각한 토론에 참여하는 것이 필수적입니다. 함께 협력함으로써 우리는 AI가 더욱 정의롭고 공평한 세상을 만드는 데 사용될 수 있도록 할 수 있습니다.

AI 콘텐츠 규제의 복잡성 탐색

Sand AI의 사례는 특히 엄격한 정치적, 사회적 통제가 있는 환경에서 AI 콘텐츠 규제를 둘러싼 복잡한 과제를 강조합니다. 혁신 촉진, 규제 요구 사항 준수 및 윤리적 원칙 준수 간의 균형은 미묘한 문제입니다. AI가 우리 삶의 다양한 측면에 계속 침투함에 따라 규제에 대한 논의는 법적, 윤리적, 기술적 고려 사항을 포괄하는 다각적이어야 합니다.

전 세계 정부는 AI 거버넌스를 위한 적절한 프레임워크를 구축하는 과제와 씨름하고 있습니다. 이러한 프레임워크는 편향, 개인 정보 보호, 보안 및 책임과 같은 문제를 해결하는 것을 목표로 합니다. 그러나 AI 개발의 빠른 속도로 인해 규정을 최신 상태로 유지하고 관련성을 유지하는 것이 어렵습니다.

또한 AI의 글로벌 특성은 추가적인 복잡성을 제시합니다. 국가마다 가치와 우선순위가 다르며, 이는 상충되는 규정 및 표준으로 이어질 수 있습니다. 이는 국경을 넘어 운영되는 AI 회사에 복잡한 법적 및 윤리적 요구 사항의 웹을 탐색해야 하므로 어려움을 만듭니다.

미래를 형성하는 데 있어서 AI 개발자의 역할

AI 개발자는 AI의 미래를 형성하는 데 중요한 역할을 합니다. 그들은 AI 시스템을 설계하고 구축하는 사람들이며 이러한 시스템이 윤리적이고 책임감 있게 사용되도록 보장할 책임이 있습니다.

여기에는 AI 알고리즘의 잠재적 편향에 유의하고 이를 완화하기 위한 조치를 취하는 것이 포함됩니다. 또한 AI 시스템 작동 방식에 대해 투명하게 공개하고 사용자에게 결정에 대한 명확한 설명을 제공하는 것도 포함됩니다.

또한 AI 개발자는 AI 규제에 대한 논쟁에 적극적으로 참여해야 합니다. 그들은 정책 입안자가 정보에 입각한 결정을 내리는 데 도움이 될 수 있는 귀중한 통찰력과 전문 지식을 가지고 있습니다.

AI 개발자, 정책 입안자 및 대중이 함께 협력함으로써 AI가 모두에게 더 나은 미래를 만드는 데 사용될 수 있도록 할 수 있습니다.

결론

Sand AI와 검열 관행에 대한 이야기는 AI 기술의 개발 및 배포에서 발생하는 복잡한 과제와 윤리적 고려 사항을 상기시켜 줍니다. AI가 계속 진화함에 따라 잠재적 이점과 위험에 대한 공개적이고 정직한 논의에 참여하는 것이 필수적입니다. 함께 협력함으로써 우리는 AI가 더욱 정의롭고 공평하며 번영하는 세상을 만드는 데 사용될 수 있도록 할 수 있습니다.