AI 컴퓨팅 변화 속 항해: Ant Group의 국내 칩 전략
미국의 수출 통제 속에서 Ant Group은 Nvidia GPU 의존도를 낮추고 국내 칩을 활용하여 대규모 AI 모델을 성공적으로 훈련했습니다. MoE 아키텍처를 통해 비용을 절감하고 경쟁력 있는 성능을 달성하며, AI 컴퓨팅 자립을 향한 중요한 발걸음을 내디뎠습니다.
미국의 수출 통제 속에서 Ant Group은 Nvidia GPU 의존도를 낮추고 국내 칩을 활용하여 대규모 AI 모델을 성공적으로 훈련했습니다. MoE 아키텍처를 통해 비용을 절감하고 경쟁력 있는 성능을 달성하며, AI 컴퓨팅 자립을 향한 중요한 발걸음을 내디뎠습니다.
Ant Group은 미국의 수출 통제 속에서 AI 혁신을 위해 미국 및 중국산 칩을 혼합 사용하는 다각화 전략을 채택했습니다. MoE 아키텍처를 활용하여 훈련 비용을 절감하고, Nvidia, AMD, Huawei, Alibaba 칩을 포함한 이기종 환경을 구축했습니다. 이 전략은 의료 서비스 개선 등 실제 응용 분야에 적용되고 있습니다.
잭 마가 알리바바의 인공지능(AI) 분야 진출을 이끌며 다시 등장했습니다. 규제 조사와 공개적인 활동 중단 이후, 마윈의 복귀는 AI를 활용하여 미래 성장을 추진하려는 알리바바의 새로운 노력과 맞물려 있습니다. Qwen 모델 공개와 함께, 알리바바 주가는 올해 70% 급등했습니다.
잭 마가 지원하는 앤트 그룹이 중국산 반도체를 활용하여 AI 모델 훈련 비용을 20% 절감하는 획기적인 기술을 개발했습니다. 엔비디아 칩과 유사한 성능을 달성하며, AI 추론 비용을 대폭 낮춰 중국 AI 발전에 기여할 것으로 기대됩니다.
중국의 AI 스타트업 Manus가 혁신적인 AI 에이전트 Monica를 통해 빠르게 성장하고 있습니다. Monica는 중국 내 규제 준수는 물론, 글로벌 기술 기업에 도전할 준비를 갖추며, 사용자 친화적인 기능과 Alibaba Qwen AI 팀과의 협력으로 2백만 명의 대기자 명단을 확보했습니다.
Alibaba의 MarcoPolo 팀은 신경망 기계 번역(NMT) 및 대규모 언어 모델(LLM)의 기존 패러다임을 넘어선, 대규모 추론 모델(LRM)을 활용한 새로운 AI 번역 접근 방식을 개척하고 있습니다. LRM은 단순한 텍스트 번역을 넘어 추론 능력을 통합하여 의미를 동적으로 추론합니다.
알리바바의 쿼크(Quark)가 온라인 검색 및 클라우드 스토리지 도구에서 포괄적인 AI 어시스턴트로 전환되었습니다. 알리바바의 Qwen 추론 AI 모델로 구동되는 이 새로운 Quark는 일반 사용자의 요구를 충족하도록 설계되어 AI 분야에서 알리바바의 입지를 강화합니다.
추가 검증으로 강화된 강화 학습이 대규모 언어 모델(LLM)의 기능을 얼마나 향상시킬 수 있을까요? 알리바바의 Qwen 팀은 최신작인 QwQ를 통해 그 해답을 찾고 있습니다.
AI 에이전트 전문 Manus와 알리바바의 대규모 언어 모델 Qwen (Tongyi Qianwen)이 전략적 제휴를 맺었습니다. 이 파트너십은 중국 시장을 위한 강력한 'AI 지니'를 만들 것을 약속하며, AI 업계에 큰 기대를 모으고 있습니다.
알리바바의 Qwen 팀은 놀랍도록 컴팩트한 크기를 유지하면서도 더 큰 모델의 성능에 도전하는 것을 목표로 하는 최신 모델 QwQ를 출시했습니다.