알리바바 Qwen3, AI 앱 새 물결: 저비용, 고성능

AI 환경은 끊임없이 진화하고 있으며, 새로운 모델과 발전이 빠른 속도로 등장하고 있습니다. 최근의 발전 중 알리바바의 차세대 퉁이 첸원 모델인 Qwen3의 오픈 소스 공개는 상당한 관심을 불러일으켰습니다. 더 작은 매개변수 크기, 감소된 비용, 다른 주요 모델에 비해 향상된 성능을 자랑하는 Qwen3는 글로벌 AI 분야에서 강력한 경쟁자로 자리매김했습니다.

Qwen3는 중국의 선구적인 하이브리드 추론 모델로서 개선된 성능과 감소된 비용의 매력적인 조합을 제공합니다. 총 2,350억 개의 매개변수를 사용하여 유사한 기능을 가진 다른 모델에 비해 배포에 필요한 리소스가 상당히 적습니다. 이러한 비용 효율성은 큰 비용을 들이지 않고도 대규모 언어 모델의 힘을 활용하려는 조직에게 Qwen3를 매력적인 옵션으로 만듭니다.

AI 에이전트 및 애플리케이션 지원

Qwen3의 주요 하이라이트 중 하나는 AI 에이전트 및 대규모 언어 모델 애플리케이션의 개발 및 배포를 가속화할 수 있는 잠재력입니다. 모델 에이전트 기능에 대한 평가에서 Qwen3는 다른 최고 수준의 모델을 능가하는 인상적인 점수를 달성했습니다. 이는 Qwen3가 AI 에이전트의 개발 및 배포에 대한 진입 장벽을 낮추어 혁신적인 애플리케이션의 급증으로 이어질 수 있음을 시사합니다.

AI 에이전트에서 도구 호출 기능에 대한 증가하는 요구

AI 에이전트는 복잡한 작업을 자동화하고 실제 세계와 상호 작용하는 데 점점 더 많이 사용되고 있습니다. AI 에이전트에 필요한 기능은 수행하도록 설계된 작업의 복잡성과 자율성에 따라 달라집니다.

견고한 AI 에이전트 시스템은 일반적으로 기본 모델에서 다음과 같은 기능을 요구합니다.

  • 기본 언어 이해 및 생성: 지침을 정확하게 해석하고, 컨텍스트를 이해하고, 자연어 응답을 생성하는 능력.

  • 도구 사용 및 호출: 특정 작업을 수행하기 위해 API를 포함한 외부 도구를 이해하고 활용하는 능력.

  • 추론 및 계획: 복잡한 목표를 더 작은 하위 작업으로 나누고 논리적 순서로 실행하는 능력.

Qwen3는 AI 에이전트에서 개선된 도구 호출 기능에 대한 중요한 요구를 해결합니다. 생각하는 모드와 생각하지 않는 모드 모두에서 외부 도구를 정확하게 통합할 수 있어 복잡한 에이전트 기반 작업에 대한 주요 오픈 소스 모델이 됩니다.

모델 에이전트 기능에 대한 평가에서 Qwen3는 다른 최고 수준의 모델을 능가하는 높은 점수를 달성했습니다. 이는 AI 에이전트의 개발 및 배포에 대한 진입 장벽이 크게 감소했음을 의미합니다.

Qwen3는 기본적으로 MCP 프로토콜을 지원하고 강력한 도구 호출 기능을 보유하고 있습니다. 도구 호출 템플릿과 파서를 캡슐화하는 Qwen-Agent 프레임워크와 결합하여 개발 프로세스를 단순화하고 모바일 및 컴퓨터 장치에서 효율적인 에이전트 작업을 가능하게 합니다. 개발자는 MCP 구성 파일을 기반으로 사용 가능한 도구를 정의하고 Qwen-Agent 프레임워크 또는 기타 사용자 정의 도구를 사용하여 통합할 수 있습니다. 이를 통해 지식 기반 및 도구 사용 기능을 갖춘 지능형 에이전트의 빠른 개발이 가능합니다.

또한 Qwen3는 기본 언어 이해 및 생성은 물론 추론 능력에서도 강력한 성능을 보입니다.

이는 동일한 모델 기능으로 에이전트 및 AI 애플리케이션 산업에 대한 모델 호출 비용이 저렴하고 호출이 더 편리하여 더 많은 새로운 에이전트 및 AI 애플리케이션의 출현을 촉진할 것임을 의미합니다.

오픈 소스에 대한 약속

알리바바는 다양한 Qwen3 모델을 제공하여 오픈 소스 커뮤니티에 대한 약속을 재확인했습니다. 여기에는 300억 및 2,350억 개의 매개변수가 있는 두 개의 MoE(Mixture-of-Experts) 모델과 다양한 크기의 6개의 조밀한 모델이 포함됩니다.

300억 개의 매개변수 MoE 모델은 상당한 성능 향상을 달성하여 이전 세대 Qwen2.5-32B 모델에 필적하는 성능을 제공합니다. 조밀한 모델도 성능이 향상되었으며 더 작은 모델도 인상적인 결과를 달성했습니다.

모든 Qwen3 모델은 하이브리드 추론 모델이므로 필요에 따라 API를 설정하여 ‘사고 예산’(즉, 심층적 사고에 필요한 예상 최대 토큰 수)을 설정하여 다양한 정도의 사고를 수행하고 AI 애플리케이션의 다양한 요구 사항과 성능 및 비용에 대한 다양한 시나리오를 유연하게 충족할 수 있습니다. 중소기업과 AI 개발자는 필요에 따라 모델을 유연하게 선택할 수 있으므로 대규모 모델 사용의 임계값과 비용이 불가피하게 감소합니다. 자금과 인력이 매우 제한적인 이러한 팀은 시장과 사용자 요구 및 문제점 발굴에 더 많은 리소스와 에너지를 투입하여 더 혁신적인 애플리케이션을 개발할 수 있습니다.

알리바바의 기술 기반

알리바바는 16년간의 개발 끝에 기본 하드웨어에서 컴퓨팅, 스토리지, 네트워크, 데이터 처리, 모델 훈련 및 추론 플랫폼에 이르기까지 풀 스택 기술 아키텍처 시스템을 포괄적으로 재구성하여 아시아 태평양 지역의 선도적인 클라우드 컴퓨팅 플랫폼이 되었습니다. 알리바바는 또한 대규모 모델 연구에 투자한 세계 최초의 기술 회사 중 하나입니다.

이전에 Zhou Jingren은 언론과의 인터뷰에서 대규모 모델 개발은 클라우드 시스템의 지원과 분리할 수 없다고 밝혔습니다. 훈련이든 추론이든 대규모 모델의 모든 획기적인 발전은 표면적으로는 모델 기능의 진화이지만 그 이면에는 전체 클라우드 컴퓨팅 및 데이터 및 엔지니어링 플랫폼의 포괄적인 협력 및 업그레이드가 있습니다. 다중 모달리티는 또한 AGI로 가는 중요한 방법입니다.

국제적 인정

Qwen3의 릴리스는 전 세계적으로 관심을 받았습니다. 알리바바의 Qwen 3 릴리스 이후 Elon Musk는 소셜 미디어 플랫폼 X에서 Grok 3.5의 초기 베타 버전이 다음 주에 SuperGrok 구독자에게 릴리스될 것이라고 밝혔으며 로켓 엔진 또는 전기 화학 기술에 대한 질문에 정확하게 답변할 수 있는 최초의 AI라고 주장했습니다.

혁신 및 접근성 추진

칭화대학교 인공지능연구소 부소장이자 유럽인문과학원 외국 학술 회원인 Sun Maosong은 최근 몇 년 동안 중국이 인공지능 개발, 특히 대규모 모델 분야에 강력한 기여를 하고 있다고 밝혔습니다. DeepSeek의 등장과 퉁이 첸원의 일련의 오픈 소스 제품은 국내 대규모 모델의 오픈 소스 경로를 크게 촉진했으며, 이는 기술 독점을 완화하고 기술 형평성을 촉진하며 인공지능의 포괄성을 향상시키는 데 의심할 여지 없이 큰 의미가 있습니다.

현재 국내외 오픈 소스 커뮤니티에서 Qwen에서 파생된 모델의 수는 100,000개를 넘어 Llama 시리즈 파생 모델을 능가했으며 퉁이 첸원 Qwen은 세계 최대 규모의 생성 언어 모델 그룹으로 자리 잡았습니다. Huggingface의 2025년 2월 10일자 최신 글로벌 오픈 소스 대규모 모델 목록에 따르면 상위 10개 오픈 소스 대규모 모델은 모두 퉁이 첸원 Qwen 오픈 소스 모델을 기반으로 한 파생 모델입니다.

Sun Maosong은 이는 중국의 대규모 모델 문화가 국제적으로 인정받았음을 의미하며 이는 문화적 변화라고 믿습니다. 이는 매우 가치 있는 일이며 중국의 대규모 모델 개발 및 기술에 대한 인정을 나타냅니다.