소형 언어 모델의 부상: AI 지형 재편

인공지능, 특히 언어를 다루는 분야는 최근 몇 년간 대규모 언어 모델(LLM)의 엄청난 규모와 힘에 의해 지배되어 왔습니다. 방대한 데이터의 바다에서 훈련된 이 거대 모델들은 놀라운 능력을 보여주며 대중의 상상력과 투자 자금을 사로잡았습니다. 그러나 점점 더 커지는 모델을 예고하는 헤드라인 아래에서, 더 조용하지만 잠재적으로 더 혁신적인 혁명이 일어나고 있습니다: 바로 소형 언어 모델(SLM)의 부상입니다. 이 더 가볍고 집중된 AI 시스템은 빠르게 중요한 틈새 시장을 개척하고 있으며, 더 큰 모델들이 효율적 또는 경제적으로 작동할 수 없는 환경에 정교한 AI 기능을 제공할 것을 약속합니다.

SLM에 대한 급증하는 관심은 단순히 학문적인 것이 아닙니다. 이는 실질적인 시장 모멘텀으로 전환되고 있습니다. 업계 분석가들은 SLM 부문의 극적인 상승을 예측하며, 2025년 약 9억 3천만 달러로 추정되는 시장 규모가 2032년까지 무려 54억 5천만 달러로 확장될 것으로 전망합니다. 이 궤적은 예측 기간 동안 약 28.7%의 견고한 연평균 성장률(CAGR)을 나타냅니다. 이러한 폭발적인 성장은 진공 상태에서 일어나지 않습니다. 이는 강력한 기술 및 시장 요인의 합류에 의해 추진됩니다.

이러한 동인 중 가장 중요한 것은 Edge AI온디바이스 인텔리전스에 대한 끊임없는 수요입니다. 다양한 분야의 기업들은 스마트폰, 센서, 산업 장비 및 기타 임베디드 시스템에서 직접 수행할 수 있는 AI 솔루션을 점점 더 찾고 있습니다. 이는 지속적인 클라우드 연결과 관련된 지연 시간, 비용 또는 개인 정보 보호 문제 없이 가능합니다. AI를 로컬에서 실행하면 자율 주행 차량 시스템부터 대화형 모바일 어시스턴트 및 스마트 팩토리 자동화에 이르기까지 다양한 애플리케이션에 중요한 실시간 응답성을 가능하게 합니다. LLM에 비해 훨씬 작은 계산 공간을 가진 SLM은 이러한 리소스 제약 환경에 이상적으로 적합합니다.

동시에, 모델 압축 기술의 상당한 발전이 강력한 촉진제 역할을 했습니다. 양자화(모델에 사용되는 숫자의 정밀도 감소) 및 가지치기(신경망 내 덜 중요한 연결 제거)와 같은 혁신을 통해 개발자는 모델 크기를 줄이고 처리 속도를 극적으로 높일 수 있습니다. 결정적으로, 이러한 기술은 모델의 성능과 정확도에 미치는 영향을 최소화하면서 더 큰 효율성을 달성하도록 진화하고 있습니다. 이러한 이중 이점(더 작은 크기와 유지된 기능)은 점점 더 많은 작업 범위에서 SLM을 LLM의 실행 가능한 대안으로 만듭니다.

또한, 기업들은 SLM을 핵심 운영에 통합하는 실용적인 가치를 인식하고 있습니다. SLM이 로그를 분석하고 시스템 장애를 예측할 수 있는 IT 자동화부터 네트워크 트래픽의 이상 징후를 감지할 수 있는 사이버 보안, 생산성 향상 및 의사 결정 프로세스 개선을 목표로 하는 다양한 비즈니스 애플리케이션에 이르기까지 잠재적 영향은 광범위합니다. SLM은 특히 비용, 개인 정보 보호에 민감하거나 거의 즉각적인 처리가 필요한 시나리오에서 AI를 더 광범위하게 배포할 수 있는 경로를 제공합니다. 엣지 컴퓨팅 요구, 압축을 통한 효율성 향상, 명확한 기업 사용 사례의 이러한 합류는 SLM을 단순히 LLM의 작은 버전이 아니라 상당한 영향력을 발휘할 준비가 된 독특하고 필수적인 AI 범주로 자리매김하게 합니다.

전략적 분할: 생태계 통제 대 틈새 전문화

SLM 환경이 형성됨에 따라, 지배력을 놓고 경쟁하는 주요 플레이어들 사이에서 뚜렷한 전략적 접근 방식이 나타나고 있습니다. 경쟁 역학은 주로 두 가지 기본 철학을 중심으로 통합되고 있으며, 각각 다른 비즈니스 모델과 AI 가치가 어떻게 포착될지에 대한 장기적인 비전을 반영합니다.

하나의 두드러진 경로는 독점적 생태계 통제 전략입니다. 이 접근 방식은 SLM 제품 주위에 폐쇄적인 정원을 구축하려는 여러 기술 대기업 및 자금이 풍부한 AI 연구소에서 선호됩니다. GPT 계열에서 파생된 변형(예상되는 GPT-4 mini 제품군 등)을 보유한 OpenAI, Gemma 모델을 보유한 Google, Claude Haiku를 옹호하는 Anthropic, Command R+를 홍보하는 Cohere와 같은 회사가 대표적인 예입니다. 이들의 전략은 일반적으로 SLM을 더 넓은 플랫폼의 필수 구성 요소로 상용화하는 것을 포함하며, 종종 구독 기반 API(Application Programming Interfaces), 통합 클라우드 서비스(Azure AI 또는 Google Cloud AI 등) 또는 기업 라이선스 계약을 통해 제공됩니다.

이 전략의 매력은 긴밀한 통합, 일관된 성능, 향상된 보안 및 기존 엔터프라이즈 워크플로우 내에서의 간소화된 배포 가능성에 있습니다. 생태계를 통제함으로써 이러한 제공업체는 신뢰성과 지원에 대한 보증을 제공할 수 있으며, 강력한 AI 기반 자동화, 소프트웨어 제품군에 내장된 정교한 ‘코파일럿’ 어시스턴트, 신뢰할 수 있는 의사 결정 지원 도구를 찾는 기업에게 SLM을 매력적으로 만듭니다. 이 모델은 서비스 제공 및 플랫폼 종속을 통해 가치를 포착하는 것을 우선시하며, 제공업체의 기존 인프라와 시장 도달 범위를 활용합니다. 이는 원활한 통합과 관리형 AI 서비스를 우선시하는 조직에 효과적으로 부합합니다.

생태계 플레이와 극명하게 대조되는 것은 특화된 도메인별 모델 전략입니다. 이 접근 방식은 특정 산업의 고유한 요구 사항, 어휘 및 규제 제약 조건에 맞게 세심하게 조정되고 미세 조정된 SLM 개발에 중점을 둡니다. 광범위한 적용 가능성을 목표로 하는 대신, 이러한 모델은 금융, 의료, 법률 서비스 또는 소프트웨어 개발과 같은 전문 기술 분야와 같은 수직 시장 내에서 고성능을 위해 연마됩니다.

이 분야의 선구자로는 코딩 작업에 명시적으로 최적화된 Zephyr 7B와 같은 모델을 호스팅하는 Hugging Face와 같은 플랫폼과, 데이터 거버넌스 및 규정 준수를 포함한 엔터프라이즈 AI 요구 사항을 핵심으로 설계된 Granite 제품군 모델을 보유한 IBM과 같은 기존 엔터프라이즈 플레이어가 있습니다. 여기서 전략적 이점은 폭이 아닌 깊이에 있습니다. 산업별 데이터 세트에서 모델을 훈련하고 특정 작업(예: 금융 전문 용어 이해, 의료 기록 해석, 법률 조항 초안 작성)에 최적화함으로써 이러한 SLM은 지정된 도메인 내에서 우수한 정확성과 문맥적 관련성을 달성할 수 있습니다. 이 전략은 일반 모델이 부족할 수 있는 규제되거나 지식 집약적인 부문의 조직에 강력하게 공감을 얻으며, 특화된 미션 크리티컬 사용 사례를 위해 매우 정확하고 상황 인식적인 AI 솔루션을 배포할 수 있게 합니다. 이는 광범위한 모델이 간과할 수 있는 특정 문제점과 규정 준수 요구 사항을 해결함으로써 채택을 촉진합니다.

이 두 가지 지배적인 전략이 전체 시장에 대해 반드시 상호 배타적인 것은 아니지만, 경쟁을 형성하는 주요 긴장을 나타냅니다. 생태계 플레이어는 규모, 통합 및 플랫폼 강점에 베팅하는 반면, 전문가들은 깊이, 정밀도 및 산업 전문성에 중점을 둡니다. SLM 시장의 진화는 이러한 접근 방식 간의 상호 작용과 경쟁을 포함할 가능성이 높으며, 기술이 성숙함에 따라 하이브리드 모델이나 추가적인 전략적 다각화로 이어질 수 있습니다.

거인들의 참전: 기존 강자들의 전략

소형 언어 모델이 제시하는 잠재적인 파괴력과 기회는 기술 세계의 기존 거인들에게 간과되지 않았습니다. 방대한 자원, 기존 고객 관계 및 광범위한 인프라를 활용하여 이들 기존 강자들은 이 급성장하는 분야에서 선도적인 위치를 확보하기 위해 전략적으로 움직이고 있습니다.

Microsoft

엔터프라이즈 소프트웨어 및 클라우드 컴퓨팅 분야의 영원한 강자인 Microsoft는 SLM을 자사의 기술 구조에 공격적으로 엮어 넣고 있습니다. 독점적 생태계 통제 전략을 채택한 이 Redmond 거인은 이러한 더 민첩한 모델을 Azure 클라우드 플랫폼 및 더 넓은 엔터프라이즈 솔루션 제품군 내에 깊숙이 통합하고 있습니다. Phi 시리즈(Phi-2 포함)Orca 제품군과 같은 제품은 엔터프라이즈 AI 작업에 특별히 최적화된 상업적으로 이용 가능한 SLM을 대표하며, Copilot 어시스턴트 내 기능을 구동하고 Microsoft 스택 기반으로 구축하는 개발자에게 강력한 도구를 제공합니다.

Microsoft의 추진력을 뒷받침하는 핵심 역량은 강력한 AI 연구 부서와 전 세계에 걸친 Azure 클라우드 인프라입니다. 이 조합을 통해 Microsoft는 최첨단 모델을 개발할 뿐만 아니라 이를 확장 가능하고 안전하며 신뢰할 수 있는 서비스로 방대한 엔터프라이즈 고객 기반에 제공할 수 있습니다. OpenAI와의 수십억 달러 규모의 전략적 파트너십은 AI 전략의 초석으로, OpenAI 모델(잠재적인 SLM 변형 포함)에 대한 특권적인 접근 권한을 부여하고 Office 365, Bing 및 다양한 Azure AI 서비스와 같은 Microsoft 제품에 긴밀하게 통합할 수 있게 합니다. 이 공생 관계는 Microsoft에 내부 개발 SLM과 생성 AI 분야에서 가장 인정받는 브랜드에 대한 접근성을 모두 제공합니다.

또한 전략적 인수는 Microsoft의 입지를 강화합니다. 대화형 AI 및 의료 문서 기술 분야의 선두 주자인 Nuance Communications 인수는 특히 의료 및 엔터프라이즈 자동화 시나리오에서 전문적인 언어 이해가 가장 중요한 수직별 AI 애플리케이션에서의 역량을 크게 강화했습니다. 내부 개발, 전략적 파트너십, 인수, 그리고 지배적인 클라우드 및 소프트웨어 플랫폼과의 깊은 통합을 혼합한 이러한 계산된 움직임은 Microsoft를 다양한 산업에 걸쳐 엔터프라이즈 SLM 채택을 위한 기본 선택지로 만들기 위해 노력하는 강력한 세력으로 자리매김하게 합니다.

IBM

엔터프라이즈 컴퓨팅에 깊이 뿌리내린 오랜 역사를 가진 International Business Machines (IBM)는 비즈니스 중심 애플리케이션, 신뢰 및 거버넌스에 대한 특징적인 초점을 맞춰 SLM 시장에 접근하고 있습니다. Big Blue는 watsonx.ai 플랫폼 내에서 SLM을 적극적으로 개발하고 최적화하며, 이를 조직의 요구 사항에 특별히 맞춰진 비용 효율적이고 효율적이며 도메인 인식적인 AI 솔루션으로 구성하고 있습니다.

IBM의 전략은 소비자 대면 또는 범용 모델을 우선시하는 접근 방식과 의도적으로 대조됩니다. 대신, 강조점은 엔터프라이즈 배포에 중요한 속성, 즉 신뢰성, 데이터 거버넌스 및 AI 윤리 원칙 준수에 명확하게 맞춰져 있습니다. 이는 Granite 모델과 같은 IBM의 SLM 제품을 보안 환경 및 엄격한 규제 준수 대상 산업에 배포하기에 특히 적합하게 만듭니다. IBM은 많은 대규모 조직, 특히 금융 및 의료 분야에서 AI의 책임감 있는 사용을 감사하고 통제하며 보장하는 능력이 협상 불가능하다는 것을 이해합니다.

이러한 거버넌스 중심 SLM을 하이브리드 클라우드 솔루션 및 컨설팅 서비스에 통합함으로써 IBM은 기업이 보안이나 윤리적 기준을 손상시키지 않으면서 자동화를 강화하고 데이터 기반 의사 결정을 개선하며 운영 효율성을 간소화할 수 있도록 지원하는 것을 목표로 합니다. 깊은 엔터프라이즈 관계와 신뢰성에 대한 명성은 복잡한 조직 구조 내에서 디지털 전환을 위한 실용적이고 신뢰할 수 있는 도구로서 SLM을 홍보하는 데 핵심 자산 역할을 합니다. IBM은 많은 기업에게 AI 배포의 ‘어떻게’(안전하고 책임감 있게)가 ‘무엇’만큼 중요하다고 확신하고 있습니다.

Google

아마도 Gemini와 같은 대규모 모델과 더 눈에 띄게 연관되어 있지만, Google은 주로 방대한 생태계 및 연구 역량을 활용하여 SLM 분야에서도 중요한 역할을 하고 있습니다. Gemma(예: Gemma 7B)와 같은 모델을 통해 Google은 상대적으로 가볍지만 성능이 뛰어난 개방형 모델을 제공하여 개발자 채택을 촉진하고 자체 생태계, 특히 Google Cloud Platform (GCP) 내 통합을 목표로 합니다.

Google의 전략은 생태계 통제와 더 넓은 커뮤니티 육성 요소를 혼합하는 것으로 보입니다. Gemma와 같은 모델을 출시함으로써 실험을 장려하고 개발자가 Google의 기본 인프라(효율적인 훈련 및 추론을 위한 TPU 등)를 활용하는 애플리케이션을 구축할 수 있도록 합니다. 이 접근 방식은 GCP AI 서비스 사용을 촉진하고 Google을 기초 모델과 이를 효과적으로 배포하는 도구를 모두 제공하는 공급자로 자리매김하게 합니다. 검색, 모바일(Android) 및 클라우드 인프라에 대한 깊은 전문 지식은 기존 제품을 향상시키거나 새로운 온디바이스 경험을 만들기 위해 SLM을 통합할 수 있는 수많은 길을 제공합니다. Google의 참여는 SLM 시장이 치열한 경쟁을 유지하도록 보장하며 효율성과 접근성의 경계를 넓힙니다.

AWS

클라우드 인프라의 지배적인 플레이어인 Amazon Web Services (AWS)는 자연스럽게 SLM을 포괄적인 AI 및 머신러닝 포트폴리오에 통합하고 있습니다. Amazon Bedrock과 같은 서비스를 통해 AWS는 기업에 다양한 제공업체의 기초 모델(잠재적으로 자체 모델 포함, 일부 맥락에서 언급된 개념적인 Nova 모델 등, 구체적인 내용은 다를 수 있음)을 포함한 선별된 선택 항목에 대한 액세스를 제공합니다.

AWS의 전략은 주로 강력한 클라우드 환경 내에서 선택권과 유연성을 제공하는 데 중점을 둡니다. Bedrock을 통해 SLM을 제공함으로써 AWS는 고객이 익숙한 AWS 도구 및 인프라를 사용하여 이러한 모델을 쉽게 실험하고, 사용자 정의하고, 배포할 수 있도록 합니다. 이 플랫폼 중심 접근 방식은 기본 하드웨어나 복잡한 모델 배포 파이프라인을 관리하지 않고 AI를 활용하려는 기업의 운영 부담을 줄이면서 SLM을 관리형 서비스로 액세스할 수 있도록 하는 데 중점을 둡니다. AWS는 기업이 대규모 모델을 선택하든 소규모 모델을 선택하든 관계없이 AI 애플리케이션을 구축하고 실행할 수 있는 기본 플랫폼이 되는 것을 목표로 하며, 규모, 보안 및 광범위한 서비스 제공을 활용하여 AI 시대에 클라우드 리더십을 유지합니다.

파괴자와 전문가: 새로운 길 개척

기존 기술 거인들 외에도, 새로운 진입자와 전문 기업들로 구성된 활기찬 집단이 소형 언어 모델 시장의 방향과 역동성에 상당한 영향을 미치고 있습니다. 이들 회사는 종종 신선한 관점을 제시하며, 오픈 소스 원칙, 특정 산업 틈새 시장 또는 독특한 기술적 접근 방식에 중점을 둡니다.

OpenAI

최근 생성 AI 관심 급증의 촉매제 역할을 한 OpenAI는 선구적인 연구와 성공적인 배포 전략을 바탕으로 SLM 분야에서 강력한 존재감을 확보하고 있습니다. 대규모 모델로 유명하지만, OpenAI는 예상되는 GPT-4o mini 제품군, o1-mini 제품군, o3-mini 제품군과 같이 더 작고 효율적인 변형을 적극적으로 개발하고 배포하고 있습니다. 이는 다양한 사용 사례에 따라 다른 모델 크기와 성능 특성이 필요하다는 전략적 이해를 반영합니다.

자연어 처리 분야의 선구자로서 OpenAI의 경쟁 우위는 깊은 연구 전문성과 연구를 상업적으로 실행 가능한 제품으로 전환하는 입증된 능력에서 비롯됩니다. 그 초점은 원시적인 능력을 넘어 효율성, 안전성 및 AI의 윤리적 배포와 같은 중요한 측면까지 확장되며, 이는 모델이 더욱 널리 보급됨에 따라 특히 관련성이 높습니다. 회사의 API 기반 제공 모델은 강력한 AI에 대한 접근을 민주화하는 데 중요한 역할을 했으며, 전 세계 개발자와 기업이 그 기술을 통합할 수 있도록 했습니다. Microsoft와의 전략적 파트너십은 상당한 자본과 비할 데 없는 시장 도달 범위를 제공하여 OpenAI의 기술을 방대한 엔터프라이즈 생태계 내에 내장합니다.

OpenAI는 고급 모델 압축 기술을 적극적으로 탐색하고 계산 요구를 최소화하면서 성능을 향상시키기 위해 다양한 모델 크기의 강점을 결합할 수 있는 하이브리드 아키텍처를 조사함으로써 계속해서 한계를 넓히고 있습니다. 모델 미세 조정 및 사용자 정의 기술 개발에서의 리더십은 조직이 OpenAI의 강력한 기본 모델을 특정 산업 요구 사항 및 독점 데이터 세트에 맞게 조정할 수 있도록 하여 혁신가이자 응용 AI의 핵심 조력자로서의 시장 지위를 더욱 공고히 합니다.

Anthropic

Anthropic은 개발 철학의 최전선에 안전성, 신뢰성 및 윤리적 고려 사항을 두어 AI 환경에서 뚜렷한 정체성을 확립했습니다. 이러한 초점은 Claude Haiku와 같은 모델로 대표되는 SLM에 대한 접근 방식에 명확하게 반영됩니다. 엔터프라이즈 환경에서 안전하고 신뢰할 수 있는 성능을 위해 명시적으로 설계된 Haiku는 유해하거나 편향되거나 사실이 아닌 콘텐츠를 생성할 위험을 최소화하면서 유용한 AI 기능을 제공하는 것을 목표로 합니다.

신뢰할 수 있는 AI 제공업체로 자리매김한 Anthropic은 특히 민감한 영역에서 운영하거나 책임감 있는 AI 채택을 우선시하는 조직에 어필합니다. 헌법적 AI와 엄격한 안전 테스트에 대한 강조는 원시 성능을 무엇보다 우선시할 수 있는 경쟁업체와 차별화됩니다. 오용에 대한 보호 장치를 갖춘 유능할 뿐만 아니라 설계된 SLM을 제공함으로써 Anthropic은 기업 가치 및 규제 기대치와 일치하는 AI 솔루션에 대한 증가하는 수요를 충족시켜, 특히 신뢰할 수 있고 윤리적으로 기반을 둔 AI 파트너를 찾는 기업에게 핵심 경쟁자가 됩니다.

Mistral AI

유럽 기술 현장에서 빠르게 부상한 프랑스 회사 Mistral AI는 2023년에 설립되어 SLM 부문에서 상당한 파장을 일으켰습니다. 핵심 전략은 로컬 장치나 엣지 컴퓨팅 환경에서도 성능과 배포 가능성을 위해 명시적으로 설계된 컴팩트하고 고효율적인 AI 모델을 만드는 데 중점을 둡니다. Mistral 7B(초기 출시 모델, 원문에서는 혼란스럽게 3B/8B를 언급했지만 잘 알려진 7B에 초점을 맞추는 것이 더 안전함)와 같은 모델은 적당한 크기(70억 매개변수)에 비해 놀라운 성능을 제공하여 계산 리소스가 제한된 시나리오에 매우 적합하다는 점에서 광범위한 주목을 받았습니다.

Mistral AI의 주요 차별점은 오픈 소스 개발에 대한 강력한 의지입니다. 많은 모델과 도구를 허용 라이선스 하에 출시함으로써 Mistral AI는 더 넓은 AI 커뮤니티 내에서 협업, 투명성 및 빠른 혁신을 촉진합니다. 이 접근 방식은 일부 대규모 플레이어의 독점적 생태계와 대조되며 개발자와 연구자들 사이에서 빠르게 충성도 높은 추종자를 구축했습니다. 기초 모델 외에도 이 회사는 중동 및 남아시아 언어에 맞춰진 Mistral Saba와 같은 변형을 생산하고 이미지 이해를 목표로 하는 Pixtral과 같은 개념으로 멀티모달 기능을 탐색함으로써 다재다능함을 보여주었으며, 다양한 언어 및 기능적 요구를 해결하려는 야심을 보여줍니다. Mistral AI의 빠른 성장은 AI 시장에서 고성능, 효율적이며 종종 오픈 소스인 대안에 대한 상당한 수요를 강조합니다.

Infosys

IT 서비스 및 컨설팅 분야의 글로벌 강자인 Infosys는 깊은 산업 전문성과 고객 관계를 활용하여 산업별 솔루션에 중점을 둔 SLM 시장에서 틈새 시장을 개척하고 있습니다. Infosys Topaz BankingSLMInfosys Topaz ITOpsSLM의 출시는 이러한 전략을 잘 보여줍니다. 이 모델들은 각각 은행 및 IT 운영 부문 내의 고유한 과제와 워크플로우를 해결하기 위해 특별히 제작되었습니다.

Infosys의 핵심 동력은 NVIDIA와의 전략적 파트너십으로, 이러한 특화된 SLM의 기반으로 NVIDIA의 AI 스택을 활용합니다. 이 모델들은 Infosys 자체의 널리 사용되는 Finacle 뱅킹 플랫폼을 포함한 기존 엔터프라이즈 시스템과의 원활한 통합을 위해 설계되었습니다. NVIDIA 기술에 중점을 둔 전담 우수 센터 내에서 개발되었으며 Sarvam AI와 같은 파트너와의 협력을 통해 더욱 강화된 이 SLM들은 범용 데이터와 부문별 데이터 모두에 대한 훈련의 이점을 누립니다. 결정적으로 Infosys는 모델만 제공하는 것이 아니라 사전 훈련 및 미세 조정 서비스도 제공하여 기업이 관련 산업 표준에 대한 보안 및 규정 준수를 보장하면서 독점 데이터 및 특정 운영 요구 사항에 맞는 맞춤형 AI 모델을 만들 수 있도록 지원합니다. 이러한 서비스 지향적 접근 방식은 Infosys를 대기업을 위한 SLM 기술의 통합자 및 사용자 정의 제공자로 자리매김하게 합니다.

기타 주목할 만한 플레이어

SLM 분야는 이러한 강조된 회사들보다 더 넓습니다. 다른 중요한 기여자들은 혁신을 추진하고 특정 시장 부문을 형성하고 있습니다:

  • Cohere: 엔터프라이즈 AI에 중점을 두며, 비즈니스 사용 사례를 위해 설계되고 종종 데이터 프라이버시 및 배포 유연성(예: 다양한 클라우드 또는 온프레미스)을 강조하는 **Command R+**와 같은 모델을 제공합니다.
  • Hugging Face: 주로 플랫폼 및 커뮤니티 허브로 알려져 있지만, Hugging Face는 모델 개발(코딩용 Zephyr 7B 등)에도 기여하며, 많은 SLM을 포함한 수천 개의 모델에 대한 접근을 민주화하여 연구 및 애플리케이션 개발을 촉진하는 데 중요한 역할을 합니다.
  • Stability AI: 처음에는 이미지 생성(Stable Diffusion) 작업으로 유명했지만, Stability AI는 언어 모델로 포트폴리오를 확장하고 있으며, 생성 AI 전문 지식을 활용하여 온디바이스 배포 및 다양한 엔터프라이즈 애플리케이션에 적합한 컴팩트하고 효율적인 SLM을 탐색하고 있습니다.

이러한 회사들은 더 큰 플레이어들과 함께 역동적이고 빠르게 진화하는 생태계에 기여합니다. 오픈 소스, 독점 플랫폼, 산업 전문화 및 기초 연구에 걸친 다양한 전략은 SLM 효율성, 접근성 및 기능의 발전을 종합적으로 주도하여 이러한 소형 모델이 수많은 애플리케이션과 산업 전반에 걸쳐 인공 지능의 미래에서 점점 더 중심적인 역할을 하도록 보장합니다.