AI 컴퓨팅 변화 속 항해: Ant Group의 국내 칩 전략

글로벌 AI 하드웨어 경쟁의 높은 이해관계

인공지능 개발 환경은 알고리즘 혁신뿐만 아니라 대규모 모델을 훈련하고 실행하는 데 필요한 정교한 하드웨어 접근성에 의해 점점 더 정의되고 있습니다. 이 하드웨어 방정식의 핵심에는 그래픽 처리 장치(GPU)가 있습니다. 원래 이미지 렌더링을 위해 설계된 이 부품은 이제 AI의 병렬 처리 요구에 필수 불가결합니다. 수년 동안 Nvidia Corporation은 이 분야에서 논쟁의 여지가 없는 거인이었으며, 그들의 고급 GPU는 Silicon Valley와 그 너머의 혁신을 주도하는 황금 표준이 되었습니다. 그러나 이러한 지배력은 회사와 고객을 지정학적 긴장의 교차점에 직접 놓이게 했습니다.

중국의 최첨단 반도체 기술 접근을 억제하려는 워싱턴의 엄격한 수출 통제 부과는 시장을 근본적으로 재편했습니다. 이러한 제한은 특히 Nvidia에서 생산하는 것과 같은 고성능 GPU를 대상으로 하며, 이는 잠재적인 군사적 용도를 포함한 고급 AI 애플리케이션에 중요하다고 간주됩니다. 즉각적인 효과는 중국의 급성장하는 기술 부문 내에서의 쟁탈전이었습니다. 기존 거대 기업부터 야심 찬 스타트업에 이르기까지 AI에 막대한 투자를 한 기업들은 차세대 기술 발전을 주도하는 필수 도구로부터 갑자기 차단될 가능성에 직면했습니다. 이는 시급한 과제를 만들었습니다: 실행 가능한 대안을 찾거나 글로벌 경쟁 분야에서 뒤처질 위험을 감수하는 것입니다. 도전 과제는 단순히 칩 하나를 다른 것으로 교체하는 것이 아니었습니다. 성능 차이, 소프트웨어 호환성 문제, 수천억 또는 수조 개의 매개변수를 가진 모델을 훈련하는 데 필요한 엄청난 규모라는 복잡한 웹을 탐색하는 것을 포함했습니다.

Ant Group, 컴퓨팅 독립을 향한 항로 설정

공급망 불확실성과 기술 경쟁 심화라는 배경 속에서 Alibaba Group Holding의 계열사인 핀테크 거대 기업 Ant Group은 더 큰 컴퓨팅 자립을 향한 중요한 진전을 시사했습니다. 회사의 대규모 언어 모델(LLM) 이니셔티브를 주도하는 부서인 Ling 팀의 연구 논문에 상세히 기술된 최근 폭로에 따르면, Nvidia 중심 경로에서 성공적으로 벗어났음을 나타냅니다. 이 성과의 핵심은 국내에서 생산된 GPU를 사용하여 정교한 AI 모델을 효과적으로 훈련할 수 있는 능력에 있습니다.

문제의 모델인 Ling-Plus-Base는 가볍지 않습니다. LLM 확장에 효율성으로 주목받는 기술인 Mixture-of-Experts(MoE) 아키텍처를 사용하여 설계되었습니다. 상당한 3,000억 개의 매개변수를 자랑하는 Ling-Plus-Base는 다른 저명한 글로벌 모델과 비슷한 수준에서 작동합니다. 그러나 결정적인 차별점은 훈련을 뒷받침하는 하드웨어입니다. 연구 결과에 따르면, 이 강력한 모델은 팀이 ‘저성능 장치’라고 설명하는 것에서 성숙 단계까지 육성될 수 있습니다. 신중하게 선택된 이 문구는 미국 수출 제한 범위 밖에 있는 처리 장치의 활용을 직접적으로 가리키며, 중국 내에서 설계 및 제조된 칩의 사용을 강력하게 시사합니다.

이 개발은 단순한 기술적 해결책 이상입니다. 잠재적인 전략적 전환을 나타냅니다. 최고 수준의 제한된 외국 하드웨어에 전적으로 의존하지 않고 최첨단 모델을 훈련할 수 있는 역량을 보여줌으로써 Ant Group은 공급망 위험을 완화할 뿐만 아니라 상당한 비용 효율성을 잠재적으로 확보하고 있습니다.

경제 방정식: 훈련 비용 절감

Ling 팀의 연구에서 나온 가장 주목할 만한 수치 중 하나는 Ling-Plus-Base 모델의 중요한 사전 훈련 단계에서 컴퓨팅 비용이 20% 절감되었다는 보고입니다. 사전 훈련은 모델에 방대한 데이터 세트를 공급하여 언어 패턴, 문맥 및 지식을 학습시키는 것으로 악명 높게 자원 집약적입니다. 이는 기초 LLM 개발과 관련된 전체 비용의 상당 부분을 차지합니다. 따라서 이 단계에서 5분의 1 비용 절감을 달성하는 것은 상당한 절약으로 이어지며, 잠재적으로 추가 연구, 개발 또는 대규모 배포를 위한 자본을 확보할 수 있습니다.

이 비용 절감은 어떻게 달성되었을까요? 논문에서 정확한 비용 분석을 상세히 설명하지는 않았지만, 몇 가지 요인이 기여했을 가능성이 높습니다.

  1. 하드웨어 조달: 국내 생산 GPU는 개별적으로 Nvidia의 최고 제품보다 성능이 낮더라도, 특히 고급 Nvidia 칩의 공급이 제한적인 상황을 고려할 때 중국 시장 내에서 더 낮은 구매 가격이나 더 유리한 대량 할인 혜택을 제공할 수 있습니다.
  2. 에너지 효율성: 명시적으로 언급되지는 않았지만, 잠재적으로 전력 소모가 적은(단위당 성능은 낮을 수 있음) 국내 칩에 대한 훈련 최적화는 대규모 데이터 센터 운영의 중요한 요소인 운영 에너지 비용 절감에 기여할 수 있습니다.
  3. 알고리즘 및 아키텍처 최적화: MoE 아키텍처 자체의 사용이 핵심입니다. MoE 모델은 밀집 아키텍처처럼 전체 모델을 사용하는 대신 주어진 입력에 대해 특정 ‘전문가’ 하위 네트워크만 활성화합니다. 이러한 고유한 희소성은 훈련 및 추론 중 계산 부하를 크게 줄여 칩당 원시 처리 능력이 낮더라도 좋은 결과를 얻을 수 있게 만듭니다. Ant의 성공은 사용 가능한 국내 하드웨어의 효율성을 극대화하기 위한 정교한 소프트웨어 및 알고리즘 튜닝을 시사합니다.

이 비용 절감은 단순한 회계상의 이점이 아닙니다. 대규모 모델 개발의 진입 장벽을 낮추고, 방법이 복제 가능하다면 회사 내 및 잠재적으로 더 넓은 중국 기술 생태계 전반에서 AI 혁신 속도를 가속화할 수 있습니다.

성능 동등성: 하드웨어 격차 해소?

비용 절감은 매력적이지만, 결과 AI 모델의 성능이 현저히 떨어진다면 의미가 거의 없습니다. Ant의 Ling 팀은 이 점을 직접적으로 다루며, Ling-Plus-Base가 해당 분야의 다른 잘 알려진 모델과 비교할 만한 성능을 달성한다고 주장합니다. 구체적으로, 그들은 자신들의 창작물을 Qwen2.5-72B-Instruct(모회사 Alibaba 개발) 및 DeepSeek-V2.5-1210-Chat(또 다른 저명한 중국 LLM)과 같은 모델과 비교하여 벤치마킹했습니다.

‘저성능 장치’를 사용했음에도 불구하고 ‘비교 가능한 성능’이라는 주장은 주목할 만합니다. 이는 Ant가 다음과 같은 방법을 통해 원시 계산 능력 부족을 효과적으로 보완할 수 있는 방법을 잠재적으로 찾았음을 시사합니다.

  • 고급 모델 아키텍처: MoE 설계는 작업 부하를 효율적으로 분산시키는 데 중요한 역할을 합니다.
  • 소프트웨어 최적화: 사용 중인 국내 GPU 아키텍처에 맞게 훈련 소프트웨어 스택(병렬화 프레임워크 및 수치 라이브러리 등)을 특별히 조정하는 것이 중요합니다. 이는 종종 상당한 엔지니어링 노력을 필요로 합니다.
  • 데이터 큐레이션 및 훈련 기법: 훈련 데이터 선택 및 훈련 프로세스 자체를 개선하기 위한 정교한 방법은 최종 모델 품질에 상당한 영향을 미칠 수 있으며, 때로는 하드웨어 제한을 보완하기도 합니다.

성능 주장은 미묘하게 접근하는 것이 중요합니다. ‘비교 가능’은 다양한 벤치마크(예: 언어 이해, 추론, 생성, 코딩)에 걸쳐 다양한 결과를 포괄할 수 있습니다. 여러 표준화된 테스트에 걸친 상세한 벤치마크 결과 없이는 정확한 비교가 어렵습니다. 그러나 이 주장 자체는 Ant가 비용/접근성과 능력 사이의 심각한 절충이 필요하지 않다는 접근 방식에 대한 자신감을 나타냅니다. 이는 하드웨어 제한으로 부과된 제약 내에서도 경쟁력을 유지할 수 있는 경로를 보여줍니다.

연구원들 스스로 더 넓은 의미를 강조했습니다: “이러한 결과는 덜 강력한 하드웨어에서 최첨단 대규모 MoE 모델을 훈련하는 것의 실현 가능성을 보여주며, 컴퓨팅 자원 선택과 관련하여 기초 모델 개발에 더 유연하고 비용 효율적인 접근 방식을 가능하게 합니다.” 이는 절대적인 최고 수준의 처리 능력에 대한 접근이 제한될 때에도 최첨단 AI 개발이 진행될 수 있도록 하는 일종의 민주화를 시사합니다.

Mixture-of-Experts (MoE) 이점 이해

Mixture-of-Experts 아키텍처는 Ant Group이 보고한 성공의 중심에 있습니다. 이는 모든 입력이 모든 매개변수를 활성화하는 전통적인 ‘밀집(dense)’ 신경망 모델에서 벗어난 것입니다. MoE 모델에서는:

  • 모델은 다수의 더 작고 전문화된 ‘전문가(expert)’ 네트워크로 구성됩니다.
  • ‘게이팅 네트워크(gating network)’ 또는 ‘라우터(router)’ 메커니즘은 들어오는 데이터(LLM의 경우 토큰)를 처리를 위해 가장 관련성 높은 전문가에게 전달하는 방법을 학습합니다.
  • 선택된 전문가(종종 잠재적으로 수백 개 중 단 한두 개)만이 해당 특정 데이터 조각에 대한 계산을 수행합니다.

이 접근 방식은 특히 하드웨어 제약 상황에서 몇 가지 주요 이점을 제공합니다.

  1. 확장성: MoE는 추론 중 또는 훈련 단계에서 각 입력 토큰을 처리하는 데 드는 계산 비용의 비례적인 증가 없이 모델이 엄청난 매개변수 수(수조 개가 실현 가능해지고 있음)로 성장할 수 있게 합니다. 이는 주어진 시간에 전체 매개변수의 일부만 활성화되기 때문입니다.
  2. 훈련 효율성: MoE 모델 훈련에는 자체적인 복잡성(예: 전문가 간 부하 분산)이 있지만, 토큰당 계산 감소는 더 빠른 훈련 시간으로 이어지거나, Ant가 보여주듯이 합리적인 시간 내에 덜 강력한 하드웨어에서 효과적으로 훈련할 수 있는 능력으로 이어질 수 있습니다.
  3. 전문화: 각 전문가는 잠재적으로 다양한 유형의 데이터, 작업 또는 지식 영역에 특화될 수 있으며, 특정 영역에서 더 높은 품질의 출력을 생성할 수 있습니다.

Google(GShard, Switch Transformer), Mistral AI(Mixtral 모델)를 포함한 전 세계 주요 AI 연구소와 중국 내 DeepSeek 및 Alibaba(Qwen 모델에 MoE 요소 통합)와 같은 기업들이 MoE를 채택했습니다. Ant의 Ling-Plus-Base는 하드웨어 현실을 탐색하기 위해 아키텍처 혁신을 활용하여 이러한 선두 그룹 내에 확고히 자리 잡고 있습니다.

국내 하드웨어 생태계: Nvidia 공백 메우기

Ant 연구 논문에서는 사용된 하드웨어를 명시적으로 밝히지 않았지만, 이후 Bloomberg 등의 보도에 따르면 이 성과는 국내 설계 칩을 포함한 것으로 나타났습니다. 여기에는 Ant의 계열사인 Alibaba에서 나온 프로세서(자체 칩 설계 부서 T-Head 보유, Yitian 710과 같은 CPU 생산 및 이전에 AI 가속기 탐색)와 결정적으로 Huawei Technologies가 포함될 수 있습니다.

Huawei는 자체적으로 강력한 미국 제재에 직면했음에도 불구하고 중국 시장 내에서 Nvidia 제품의 직접적인 대안으로 Ascend 시리즈 AI 가속기(Ascend 910B 등)를 공격적으로 개발해 왔습니다. 이 칩들은 주요 중국 기술 기업들에 의해 채택되고 있는 것으로 알려졌습니다. Ant Group이 Ling-Plus-Base와 같이 큰 모델에 이러한 하드웨어를 효과적으로 활용할 수 있는 능력은 이러한 국내 대안에 대한 중요한 검증이 될 것입니다.

Ant Group이 Nvidia를 완전히 포기한 것은 아니라는 점에 유의하는 것이 중요합니다. 보고서에 따르면 Nvidia 칩은 여전히 Ant의 AI 개발 도구 키트의 일부로 남아 있으며, 특정 성능 특성이나 성숙한 소프트웨어 생태계(CUDA 등)가 이점을 제공하는 작업이나 레거시 시스템에 사용될 가능성이 높습니다. 이러한 움직임은 반드시 하룻밤 사이에 완전한 교체를 의미하는 것이 아니라, 전략적 취약성을 줄이고 비용을 통제하는 실행 가능한 병렬 경로를 구축하는 것에 관한 것입니다. 이러한 하이브리드 접근 방식을 통해 회사는 독립성을 키우면서 사용 가능한 최상의 도구를 활용할 수 있습니다. Ant Group 자체는 사용된 특정 칩에 대해 공식적으로 언급하기를 거부하며 어느 정도 기업의 신중함을 유지했습니다.

더 넓은 추세: AI 자립을 위한 중국의 집단적 추진

Ant Group의 이니셔티브는 고립되어 발생하지 않습니다. 이는 미국 수출 통제로 인한 제약을 극복하기 위해 중국 기술 부문 전반에 걸친 더 넓은 전략적 추진을 반영합니다. ‘기술 전쟁’은 특히 반도체 및 AI와 같은 핵심 기술에서 더 큰 자급자족을 달성하려는 노력을 촉진했습니다.

다른 주요 기업들도 유사한 목표를 추구하고 있습니다.

  • ByteDance: TikTok의 모회사인 ByteDance 역시 추천 알고리즘, 생성 AI 등을 포함한 AI 야망을 위해 국내 옵션을 포함한 대체 칩을 확보하고 활용하기 위해 노력하고 있는 것으로 알려졌습니다.
  • DeepSeek: 강력한 오픈 소스 모델로 알려진 이 AI 스타트업은 훈련 효율성을 명시적으로 언급하며 MoE 아키텍처를 사용하여 모델을 개발했으며, 이는 가장 강력한 GPU 대규모 보유에 덜 의존하는 전략과 일치합니다.
  • Baidu, Tencent 등: 모든 주요 중국 클라우드 및 기술 기업들은 AI에 막대한 투자를 하고 있으며, 필연적으로 국내 칩 최적화 및 잠재적으로 자체 맞춤형 실리콘 개발을 포함한 하드웨어 다각화 전략을 모색하고 있습니다.

집단적인 메시지는 분명합니다. Nvidia의 최고급 제품에 대한 접근은 여전히 바람직하지만, 중국 기술 산업은 적극적으로 대안 솔루션을 개발하고 검증하고 있습니다. 여기에는 MoE와 같은 효율적인 모델 아키텍처 채택, 다양한 하드웨어 백엔드를 위한 집중적인 소프트웨어 최적화, 국내 생산 칩의 개발 및 채택 지원 등 다각적인 접근 방식이 포함됩니다.

언어 모델을 넘어: Ant의 의료 분야 AI 확장

Ant Group의 AI 노력은 기초 LLM을 넘어 확장됩니다. 훈련 효율성에 대한 소식과 동시에, 회사는 의료 부문에 맞춤화된 AI 솔루션 제품군에 대한 상당한 업그레이드를 공개했습니다. 이 이니셔티브는 독자적으로 개발한 의료 중심 AI 모델을 활용합니다.

업그레이드된 솔루션은 멀티모달 기능(텍스트, 이미지 및 잠재적으로 다른 의료 데이터와 같은 다양한 데이터 유형 처리)과 정교한 의료 추론 기능을 갖추고 있습니다. 이는 Ant가 ‘올인원 기계’라고 설명하는 것, 즉 임상 환경이나 건강 관리를 위해 설계된 장치 또는 플랫폼에 통합됩니다.

Ling-Plus-Base LLM 뉴스와는 별개로 보이지만, 잠재적인 근본적인 연관성이 있습니다. 국내 옵션을 포함한 하드웨어 혼합을 잠재적으로 사용하여 강력한 AI 모델을 보다 비용 효율적으로 훈련할 수 있는 능력은 의료와 같은 부문을 위한 특수 모델 개발 및 배포의 경제적 실행 가능성을 뒷받침할 수 있습니다. AI 개발의 기초 비용을 낮추면 자원을 도메인별 애플리케이션에 투입할 수 있으며, 잠재적으로 중요한 산업에서 실용적인 AI 도구의 출시를 가속화할 수 있습니다. 이러한 의료 분야 진출은 Ant가 핀테크 뿌리를 넘어 AI 전문 지식을 광범위하게 적용하려는 야망을 강조합니다.

미래에 대한 시사점: AI 로드의 분기점?

Ant Group이 Nvidia가 아닌, 아마도 국내 GPU를 사용하여 대규모 MoE 모델을 성공적으로 훈련시킨 것은 상당한 의미를 내포합니다.

  • 국내 칩에 대한 검증: Huawei의 Ascend와 같은 중국 설계 AI 가속기의 실행 가능성에 대한 중요한 증거 역할을 하며, 잠재적으로 중국 내 채택을 촉진할 수 있습니다.
  • 경쟁 환경: 중국 기업들이 아키텍처 및 소프트웨어 혁신을 활용하여 제한에도 불구하고 최첨단 AI 개발에서 경쟁력을 유지할 수 있음을 보여줍니다.
  • 비용 역학: 20% 비용 절감은 대체 하드웨어를 효과적으로 활용할 수 있는 기업에게 잠재적인 경쟁 우위를 강조하며, 글로벌 AI 가격 책정 및 접근성에 영향을 미칠 수 있습니다.
  • Nvidia의 위치: Nvidia는 전 세계적으로 여전히 지배적이지만, 이러한 추세는 규제와 현지 경쟁사의 부상으로 인해 중요한 중국 시장에서 직면한 과제를 강조합니다. 이는 Nvidia가 중국에 맞춤화된 수출 규정 준수 칩 개발을 가속화할 수 있지만, 대안 경로의 타당성도 입증합니다.
  • 기술적 분기?: 장기적으로 하드웨어 접근 및 소프트웨어 최적화의 지속적인 차이는 부분적으로 구별되는 AI 생태계로 이어질 수 있으며, 모델과 도구는 서로 다른 기본 실리콘에 최적화될 수 있습니다.

Ant Group의 Ling 팀이 수행한 여정은 지정학적 제약에 의해 촉발된 수완의 상징입니다. MoE와 같은 고급 모델 아키텍처를 사용 가능한 국내 하드웨어를 최적화하고 활용하려는 의지와 영리하게 결합함으로써, 그들은 인공지능이라는 중요한 분야에서 지속적인 발전을 보장하는 항로를 설정했으며, 잠재적으로 업계를 정의하는 비용 구조와 전략적 의존성을 재편하고 있습니다. 이는 혁신이 종종 압박 속에서 가장 활발하게 번성한다는 생각에 대한 증거입니다.