중국의 인공지능(AI) 분야, 특히 DeepSeek-R1 출시와 함께 글로벌의 이목을 사로잡은 가운데, 대만은 고유한 문화적 정체성과 민주적 가치를 반영하는 언어 모델 개발을 우선시하는 차별화된 행보를 걷고 있습니다. 이는 권위주의 정권의 영향을 받는 AI 시스템에 대한 균형추를 만드는 것을 목표로 합니다.
DeepSeek의 도전
지난 1월 DeepSeek-R1의 공개는 기술 커뮤니티 내에서 상당한 관심을 불러일으켰습니다. Baidu의 Ernie 및 ByteDance의 Doubao와 같은 이전 중국어 언어 모델은 중국어 애플리케이션, 수학 및 코딩에서 가능성을 보여주었지만 약한 영어 실력과 제한된 접근성으로 인해 한계가 있었습니다. 그러나 DeepSeek-R1은 국제적인 인정을 받은 최초의 중국어 LLM으로서 중요한 이정표를 세웠습니다.
DeepSeek-R1의 가장 두드러진 측면 중 하나는 보고된 개발 비용이 낮다는 것입니다. 훈련에 1억 달러 이상이 소요된 것으로 알려진 OpenAI의 GPT-4o와는 대조적으로 DeepSeek 연구원들은 챗봇 개발에 560만 달러만 들었다고 주장했습니다. 효율성에 대한 이야기를 더욱 뒷받침하여 DeepSeek 엔지니어는 GPT-4o 또는 Anthropic의 Claude와 같은 모델에 사용되는 최상위 칩이 아닌 Nvidia H800과 같은 중간급 CPU를 사용하여 R1 모델을 훈련했습니다. 미국이 고성능 칩의 중국 수출을 제한했음에도 불구하고 DeepSeek-R1은 256대의 서버에 분산된 2,048개의 프로세서만 사용하여 다른 주요 봇보다 뛰어난 성능을 보였습니다.
이러한 놀라운 효율성과 낮은 개발 비용은 주로 개발자가 성능을 미세 조정하고 하드웨어 사용을 극대화할 수 있도록 하는 어셈블리 유사 언어인 PTX를 포함한 정교한 프로그래밍 기술 덕분입니다.
출시 직후 DeepSeek-R1 앱은 미국 Apple App Store의 무료 다운로드 순위에서 1위를 차지하여 ChatGPT, TikTok 및 Meta의 소셜 미디어 플랫폼을 넘어섰습니다. Nasdaq은 하락세를 보였고 Nvidia의 주가는 DeepSeek-R1 데뷔 이후 급락했습니다.
DeepSeek의 주장에 대한 의문
초기 열정에도 불구하고 많은 관찰자들이 LLM에 대한 DeepSeek의 주장의 유효성에 대해 의문을 제기했습니다. 분석가들은 명시된 수치는 인프라, 하드웨어 및 인적 자원 비용을 제외하거나 과소 평가하면서 계산 비용만 고려할 가능성이 높다고 제안했습니다.
타이페이에 본사를 둔 생성 AI 및 클라우드 게임 서비스 제공업체인 Ubitus의 설립자이자 CEO인 Wesley Kuo는 이러한 우려를 반영하여 실제 비용은 보고된 것보다 훨씬 높을 것이라고 말했습니다. Nvidia의 지원을 받는 Ubitus는 전통적인 중국어 문자를 사용하는 현지화된 LLM인 Project TAME를 지원했습니다. 그들은 H100 CPU와 게임 데이터를 제공했습니다. Ubitus는 또한 Foxlink 및 Shinfox Energy와 협력하여 Asus와 협력하여 대만 최대의 녹색 에너지 구동 AI 슈퍼컴퓨팅 서비스 센터인 Ubilink.AI를 설립했습니다.
Kuo는 게임, 관광 및 소매와 같은 분야에서 정부(일본 정부 포함)를 위한 LLM 애플리케이션 및 모델 개발에 대한 회사의 참여를 강조하면서 노동력 부족과 고령화 문제를 해결할 수 있는 AI의 잠재력을 강조합니다.
데이터 무결성 문제
Kuo는 OpenAI 및 Microsoft와 함께 DeepSeek가 모델 증류를 통해 데이터를 획득했을 수 있다고 제안합니다. 이 프로세스에는 더 큰 모델의 출력을 모방하도록 더 작은 언어 모델을 훈련시키는 것이 포함됩니다. OpenAI와 Microsoft는 DeepSeek가 개발을 용이하게 하기 위해 OpenAI의 애플리케이션 프로그래밍 인터페이스를 활용했다고 주장합니다.
Kuo는 DeepSeek가 OpenAI에서 데이터를 얻었고 효율성에 대한 회사의 주장에 대한 오해가 있다고 주장합니다. 그는 6,700억 개의 매개변수를 가진 DeepSeek-R1이 Meta AI의 Llama 3.1 405B보다 훨씬 크다고 지적합니다. 매개변수는 모델이 예측을 위해 훈련 중에 학습하는 내부 숫자 값입니다. Kuo는 또한 DeepSeek의 모델이 Llama 3.1에서 추출되었을 수 있다고 제안합니다.
이러한 반박 외에도 DeepSeek-R1의 기능에 대한 우려도 제기되었습니다. 전문가들은 R1이 이전 모델과 마찬가지로 특수하고 작업별 기능에서는 뛰어나지만 범용 성능에서는 GPT-4o 버전에 뒤쳐진다고 제안합니다.
DeepSeek 모델의 주요 제한 사항은 정보에 대한 무료 액세스에 대한 제한입니다. 사용자는 민감한 정치적 주제에 대한 문의가 회피적인 응답으로 이어진다는 것을 발견했습니다. 신장 위구르 소수 민족과 대만의 지위와 같은 주제에 대해 DeepSeek의 응답은 중국 공산당의 공식 입장을 반영합니다. 연구에 따르면 DeepSeek 출력의 상당 부분이 민주주의, 인권 및 중국의 논쟁적인 주권 주장과 관련된 정보를 억압하기 위해 검열됩니다.
대만의 대안: TAIDE 및 그 이상
이에 대응하여 대만에서 개발된 LLM(예: TAME)은 Sinosphere 내에서 DeepSeek에 대한 대안으로 부상했습니다. 국립 응용 연구소에서 2023년 6월에 출시한 Trustworthy AI Dialogue Engine(TAIDE)은 대만의 사회적, 문화적, 언어적 규범에 맞는 모델을 개발하는 것을 목표로 합니다.
TAIDE에 대한 작업은 중단된 것으로 보이지만 Project TAME의 중요한 벤치마크 역할을 했습니다. 다양한 조직의 자금 지원을 받아 국립 대만 대학교의 Machine Intelligence and Understanding Laboratory(MiuLab)에서 개발한 TAME는 5,000억 개의 토큰으로 훈련되었습니다. 대학 입학, 변호사 시험 및 전통 중국 의학 시험에서 더 높은 점수를 획득하여 39개의 평가에서 GPT-4o를 포함한 경쟁사보다 뛰어난 성능을 보였습니다.
TAME의 목표 중 하나는 지역 문화를 홍보하는 것입니다. 지역 언어 기능을 잠금 해제하는 것은 중요한 단계입니다. Kuo는 Whisper를 기반으로 한 대만어 음성 LLM 개발에 대해 언급했는데, 이는 구두 대만어를 이해하는 데 긍정적인 결과를 얻었습니다. 하카어 인식 개발이 진행 중입니다.
이러한 노력은 이러한 언어가 널리 사용되는 지역의 기관으로부터 좋은 평가를 받았습니다. 원주민 언어 인식으로 모델을 훈련하려는 노력도 있지만 제한된 데이터가 여전히 장애물로 남아 있습니다. AI가 새로운 언어를 배우도록 훈련하려면 상당한 양의 음성 녹음과 텍스트가 쌍을 이루어야 합니다.
정부 아카이브의 과거 데이터에 액세스하는 것은 또 다른 기회를 제공합니다. 그러나 일부 데이터는 저작권으로 보호됩니다. 인공 일반 지능의 출현은 멸종 위기에 처한 언어와 멸종된 언어의 부활을 돕는 잠재력을 제공합니다.
AI 주권 추구
언어와 문화의 교차점은 대만 정체성을 강화하고, 대만의 이야기를 전달하고, 정보 환경을 보호하는 수단으로서 AI 주권의 중요성을 강조합니다.
업계 컨설턴트이자 Market Intelligence & Consulting Institute(MIC)의 이사인 Julian Chu는 LLM 모델과 훈련 데이터의 편향 가능성을 강조합니다. 그는 전통적인 문자를 사용하더라도 LLM 출력이 중화인민공화국의 스타일을 반영하고 대만 문화를 포착하지 못할 수 있다고 지적합니다. 목표는 대만 기업이 대만 언어 또는 데이터를 사용하여 LLM을 훈련하고 AI 주권을 구축하는 것입니다.
Chu는 Formosa Foundation Model(FFM-Llama2)을 또 다른 유망한 대만 LLM으로 언급합니다. Taiwan Web Service에서 2023년 9월에 출시된 이 모델은 AI를 민주화하는 것을 목표로 했습니다. Foxconn은 또한 3월에 LLM인 FoxBrain을 출시했습니다. 그러나 일부 논평가들은 대기업의 LLM 진출에 회의적입니다.
TAME를 개발한 MiuLab 팀의 멤버인 Lin Yen-ting은 대만에 대한 정보 환경의 격차를 해소해야 할 필요성을 강조합니다. 그는 DeepSeek-R1 및 기타 중국 LLM이 대만에 대한 왜곡된 견해를 제시한다고 지적합니다. 미국에서 개발된 모델도 때때로 대만을 잘못 표현할 수 있습니다. 오픈 소스 모델은 대만을 우선시하지 않을 수 있으며 훈련 데이터는 중국이 지배적입니다.
따라서 대만 콘텐츠를 선택적으로 통합하여 모델에 다시 훈련하는 것이 중요합니다. 이러한 적극적인 접근 방식은 대만의 고유한 문화 및 언어적 풍경이 디지털 영역에서 정확하게 표현되도록 보장하여 국가 정체성을 육성하고 글로벌 AI 개발에 직면하여 고유한 유산을 보존합니다. 대만 정체성을 보존하려는 이러한 헌신은 섬나라의 고유한 문화와 가치가 지배적인 이야기로 가려지지 않도록 보장합니다.
이러한 노력에 내재된 과제는 상당합니다. 진정으로 대표적인 AI 모델을 구축하려면 현지화된 콘텐츠의 방대한 데이터 세트에 대한 액세스 및 자연어 처리 전문 지식을 포함하여 상당한 리소스 투자가 필요합니다. 또한 허위 정보와 편향된 정보에 대응해야 하는 지속적인 필요성은 지속적인 개선 및 적응 프로세스를 필요로 합니다.
이러한 과제에도 불구하고 AI 주권에 대한 대만의 약속은 확고합니다. TAME 및 기타 현지화된 LLM의 개발은 인공지능의 미래가 섬의 고유한 문화적 정체성, 민주적 가치 및 세계에서 고유한 위치를 보존하려는 확고한 의지를 반영하도록 보장하는 중요한 단계를 나타냅니다. AI 주권을 우선시함으로써 대만은 문화 유산을 보호할 뿐만 아니라 기술 발전이 문화적 정체성 및 민주적 원칙의 보존과 조화를 이룰 수 있음을 보여주면서 글로벌 AI 환경에서 핵심적인 역할을 수행하고 있습니다.
여정의 지속
완전한 AI 주권을 향한 여정은 진행 중입니다. 이러한 과제를 극복하고 이러한 이니셔티브의 장기적인 성공을 보장하려면 추가 연구, 개발 및 협력이 중요합니다. AI 주권을 계속 우선시함으로써 대만은 고유한 문화적 정체성과민주적 가치를 진정으로 반영하는 디지털 환경을 조성하여 점점 더 상호 연결된 세상에서 고유한 위치를 유지하기 위해 노력하는 다른 국가에 모범을 보일 수 있습니다.
DeepSeek 챌린지 심층 분석
DeepSeek-R1의 공개는 중국어 모델의 발전 가능성을 보여주는 중요한 사건이었습니다. 특히 경제적인 개발 비용은 주목할 만했습니다. 초기에는 기술 커뮤니티의 뜨거운 반응을 얻었지만, 그 주장의 진실성에 대한 의문도 제기되었습니다. 분석가들은 DeepSeek-R1의 개발 비용이 과소 평가되었을 가능성이 높다고 지적하며, 실제 비용은 훨씬 더 높을 것이라고 주장했습니다.
데이터 무결성 논란
DeepSeek가 데이터를 획득하는 과정에서 OpenAI의 API를 활용했을 가능성이 제기되면서 데이터 무결성에 대한 논란이 불거졌습니다. 일각에서는 DeepSeek의 모델이 OpenAI의 데이터를 기반으로 개발되었을 수 있다는 의혹을 제기하며, 효율성에 대한 주장에 대한 오해가 있다고 주장했습니다.
대만, AI 주권을 향한 움직임
DeepSeek에 대한 의구심과 별개로, 대만은 자체적인 AI 모델 개발을 통해 AI 주권을 확보하려는 노력을 기울이고 있습니다. TAIDE와 TAME은 대만의 문화적, 언어적 특성을 반영하는 AI 모델을 구축하여 중국의 영향력으로부터 독립적인 정보 환경을 조성하는 데 기여하고 있습니다.
TAME, 대만의 문화적 정체성을 담다
특히 TAME는 대만 고유의 언어와 문화를 이해하고 반영하는 데 중점을 두고 있습니다. 대만어와 하카어, 심지어 원주민 언어까지 지원하려는 노력은 대만의 문화적 다양성을 AI 모델에 담아내려는 의지를 보여줍니다.
AI 주권, 대만의 미래를 위한 투자
AI 주권은 단순히 기술적인 문제가 아니라, 대만의 정체성을 지키고 미래를 위한 투자를 의미합니다. 대만은 자체적인 AI 모델 개발을 통해 정보 환경을 보호하고, 문화적 유산을 보존하며, 글로벌 AI 시장에서 경쟁력을 확보할 수 있을 것입니다.
앞으로의 과제와 전망
AI 주권을 확보하기 위한 대만의 노력은 아직 진행 중입니다. 데이터 확보, 기술 개발, 인력 양성 등 해결해야 할 과제가 산적해 있습니다. 하지만 대만은 AI 주권을 통해 더욱 강력하고 독립적인 국가로 성장할 수 있을 것입니다. 지속적인 연구와 투자를 통해 대만은 AI 분야에서 선도적인 역할을 수행할 수 있을 것으로 기대됩니다.