2. Nvidia
인공지능 시스템의 고도화를 향한 노력은 대규모 언어 모델 개발자들의 막대한 투자를 지속적으로 유도하고 있습니다. 그러나 이미 이러한 AI 혁명의 결실을 누리고 있는 기업이 있습니다. 바로 Nvidia입니다. Nvidia는 그래픽 처리 장치(GPU)로 AI 경쟁에 불을 지폈으며, 이제는 혁신적인 Blackwell 프로세서와 플랫폼을 통해 인간 수준의 지능을 추구하는 데 완벽하게 자리매김했습니다.
Blackwell은 이전 모델인 H100을 능가하여 일반 모델 훈련 작업에 최대 2.5배의 성능을 제공하는 동시에 에너지 소비를 크게 줄입니다. Google, Meta, Microsoft, OpenAI, Tesla, xAI와 같은 업계 거물들을 포함한 주요 데이터 센터 운영자와 AI 연구소는 수십만 개의 Blackwell GPU 구매를 약속했습니다.
DeepSeek 및 Alibaba와 같은 중국 기업의 최근 모델이 구형의 덜 강력한 Nvidia GPU를 사용하여 인상적인 기능을 보여주었지만, Nvidia는 단순히 안주하지 않습니다. 이 회사는 신약 개발(Biopharma용 Clara), 자율 주행 차량(Drive AGX), 비디오 제작(Holoscan), 디지털 트윈(Omniverse) 등 다양한 애플리케이션을 위한 플랫폼을 적극적으로 개발하고 있습니다. Nvidia는 광범위한 실제 시나리오에서 AI 발전을 촉진함으로써 향후 모델이 컴퓨팅 성능에 대한 의존도를 줄이더라도 지속적인 성장을 위한 전략적 입지를 구축하고 있습니다.
3. OpenAI
2019년부터 OpenAI는 훈련 데이터와 컴퓨팅 리소스를 확장하여 모델을 지속적으로 개선해 왔으며, 이는 업계 전반에서 널리 채택된 전략입니다. 그러나 이러한 확장 접근 방식의 수익 감소가 분명해짐에 따라 OpenAI는 대부분의 작업에서 인간 지능을 능가하는 모델인 AGI를 달성하기 위한 새로운 경로의 필요성을 인식했습니다.
OpenAI의 해결책은 o1 모델의 형태로 나타났습니다. 사전 훈련 중에 리소스를 확장하는 데만 집중하는 대신, OpenAI는 모델이 적극적으로 배포되고 사용자 프롬프트에 응답하는 단계인 추론 중에 더 많은 시간과 컴퓨팅 성능을 할당하도록 o1을 설계했습니다. 이 과정에서 o1은 사용자와 관련 데이터 소스 모두에서 컨텍스트 정보를 수집하고 유지합니다. o1은 최적의 답변 경로를 결정하기 위해 시행착오 방법론을 사용합니다. 그 결과 복잡한 질문에 대한 PhD 수준의 답변이 생성되어 o1이 성능 벤치마크 순위에서 1위를 차지했습니다.
OpenAI는 ChatGPT Plus 구독자에게 o1의 ‘실험용’ 및 ‘미니’ 버전을 제공합니다. 또한 ChatGPT Pro라는 프리미엄 서비스는 월 200달러에 전체 o1 모델에 대한 무제한 액세스를 제공합니다. 2024년 12월, OpenAI는 o1의 후속 모델인 o3를 공개했으며, 2025년 2월에는 과학, 수학 및 코딩에 최적화된 더 작고 빠른 변형인 o3-mini에 대한 유료 사용자 액세스 권한을 부여했습니다. OpenAI의 새로운 추론 모델의 가장 큰 영향은 AGI로 가는 길에서 지능의 추가적인 발전을 달성하기 위한 유망한 방법으로 추론 시간에 컴퓨팅을 확장하는 것을 검증했다는 것입니다.
4. Google DeepMind
오늘날의 챗봇을 위한 기반 연구는 2010년대 후반 Google에서 시작되었습니다. Google은 ChatGPT가 등장하기 훨씬 전에 대규모 언어 모델 기반 챗봇을 개발했습니다. 그러나 안전, 개인 정보 보호 및 법적 문제에 대한 우려로 인해 신중한 접근 방식을 취하여 공개 출시가 지연된 것으로 알려졌습니다. 이러한 망설임으로 인해 Google은 ChatGPT 출시로 촉발된 AI 경쟁에서 초기에 뒤처졌습니다.
2024년 Google DeepMind의 Gemini 2.0 출시는 Google의 확실한 부활을 알렸습니다. Gemini 2.0은 본질적으로 다중 모드인 최초의 대중 시장 AI 모델로, 텍스트와 동일한 유창성으로 이미지, 비디오, 오디오 및 컴퓨터 코드를 처리하고 생성할 수 있습니다. 이 기능을 통해 모델은 비디오 클립 또는 휴대폰 카메라의 라이브 비디오 피드를 놀라운 속도와 정확성으로 분석하고 추론할 수 있습니다.
Gemini는 또한 Maps 및 Search와 같은 다른 Google 서비스를 제어할 수 있는 기능이 돋보입니다. 이러한 통합은 Google의 AI 연구와 기존 정보 및 생산성 도구를 결합한 Google의 전략적 이점을 보여줍니다. Gemini는 사용자를 대신하여 복잡한 문제를 자율적으로 운영하고 추론할 수 있는 능력을 보여주는 최초의 AI 모델 중 하나입니다. Gemini 2.0 Flash Thinking Experimental 모델은 사용자에게 답변에 도달하는 데 사용된 사고 과정에 대한 통찰력까지 제공합니다. 또한 12월에 Google은 온라인 식료품 쇼핑과 같은 작업을 자율적으로 수행하도록 설계된 Gemini 기반 에이전트 AI 기능인 Project Mariner를 도입했습니다.
5. Anthropic
생성 AI의 주요 응용 분야는 지금까지 텍스트 작성, 요약 및 이미지 생성에 중점을 두었습니다. 다음 진화 단계는 대규모 언어 모델에 추론 능력과 도구 사용 능력을 갖추는 것입니다. Anthropic의 ‘Computer Use’ 모델은 이러한 미래를 엿볼 수 있게 해주었습니다.
2024년 Claude 3.5 Sonnet부터 시작하여 Anthropic의 모델은 인터넷 콘텐츠를 포함한 화면 활동을 인식할 수 있습니다. 커서를 조작하고, 버튼을 클릭하고, 텍스트를 입력할 수 있습니다. 데모 비디오에서는 Claude가 브라우저 탭에 열려 있는 웹사이트에서 사용 가능한 정보를 사용하여 양식을 작성하는 기능을 보여주었습니다. 개인 웹사이트를 만들거나 당일 여행의 물류를 구성하는 것과 같은 작업을 수행할 수 있습니다. 새 탭을 열고, 검색을 수행하고, 데이터 필드를 채우는 것과 같은 AI의 자율적인 작업은 정말 놀랍습니다.
현재 모델은 더 느린 속도로 작동하고 항상 정답을 생성하지 않을 수 있지만, Anthropic이 한계를 식별하고 해결함에 따라 빠른 개선이 예상됩니다. 앞서 언급한 Google의 Project Mariner는 12월에 Anthropic의 뒤를 따랐고, OpenAI는 2025년 1월에 자체 컴퓨터 사용 모델인 Operator를 도입했습니다. 2025년 2월, Anthropic은 어려운 쿼리에 대해 자동으로 추론 모드를 활성화할 수 있는 더 큰 모델인 다음 주요 반복인 Claude 3.7 Sonnet을 공개했습니다.
6. Microsoft
Microsoft의 Phi 모델 개발은 2023년 회사의 연구자들이 제기한 근본적인 질문에서 비롯되었습니다. “새로운 지능의 징후를 보일 수 있는 가장 작은 모델 크기는 얼마입니까?” 이 질문은 메모리, 처리 능력 또는 연결이 제한된 시나리오에서 최적의 성능을 위해 설계된 모델인 ‘소규모 언어 모델’의 진화에서 중요한 순간을 기록했으며, 빠른 응답 시간이 중요합니다.
2024년 내내 Microsoft는 훈련 중에 명시적으로 통합되지 않은 추론 및 논리 기능을 보여주는 2세대 소규모 모델을 출시했습니다. 4월에 회사는 훨씬 더 크고 더 유능한 LLM에 의해 생성된 합성 데이터에 대한 훈련 덕분에 언어, 추론, 코딩 및 수학 벤치마크에서 뛰어난 일련의 Phi-3 모델을 공개했습니다. 오픈 소스 Phi-3의 변형은 2024년 동안 Hugging Face에서 450만 회 이상 다운로드되었습니다.
2024년 말, Microsoft는 Phi-4 소규모 언어 모델을 출시하여 추론 중심 작업에서 Phi-3 모델을 능가했으며 GPQA(과학적 질문) 및 MATH 벤치마크에서 OpenAI의 GPT-4o를 능가했습니다. Microsoft는 오픈 소스 및 오픈 가중치 라이선스에 따라 모델을 출시하여 개발자가 휴대폰이나 노트북용 에지 모델 또는 애플리케이션을 만들 수 있도록 지원했습니다. 한 달도 채 되지 않아 Phi-4는 Hugging Face에서 375,000회 다운로드를 기록했습니다.
7. Amazon
Amazon AWS는 최근 AI용 Trainium 프로세서의 새 버전인 Trainium2를 도입하여 특정 환경에서 Nvidia GPU의 지배력에 도전할 수 있습니다. Trainium2는 가장 큰 생성 AI 모델을 훈련하고 모델 배포 후 추론 시간 작업에 필요한 막대한 컴퓨팅 성능을 제공하도록 설계되었습니다. AWS는 Trainium이 유사한 작업에 대해 GPU보다 30%~40% 더 비용 효율적이라고 주장합니다.
Trainium2는 첫 번째 Trainium 칩에서 관찰된 전력 및 소프트웨어 통합 결함을 해결하여 Amazon이 Nvidia와의 격차를 좁힐 수 있는 잠재력을 제공합니다. (AWS 자체는 GPU를 위해 Nvidia에 크게 의존하고 있습니다.) Nvidia의 CUDA 소프트웨어 계층에 대한 고객 락인으로 인해 Nvidia를 대체하는 것은 어려운 과제입니다. CUDA는 연구자에게 모델이 칩의 리소스를 활용하는 방법을 세부적으로 제어할 수 있는 기능을 제공합니다. Amazon은 CUDA와 유사하게 연구자에게 칩 커널 상호 작용을 세부적으로 제어할 수 있는 자체 커널 제어 소프트웨어 계층인 NKI(Neuron Kernel Interface)를 제공합니다.
Trainium2는 아직 대규모로 테스트되지 않았다는 점에 유의해야 합니다. AWS는 현재 Anthropic을 위해 400,000개의 Trainium2 칩이 있는 서버 클러스터를 구축하고 있으며, 이는 대규모 배포에서 AI 칩의 성능을 최적화하는 데 유용한 통찰력을 제공할 수 있습니다.
8. Arm
영국의 반도체 설계 회사인 Arm은 오랫동안 휴대폰, 센서, IoT 하드웨어와 같은 소형 장치에 전력을 공급하는 칩에 사용되는 아키텍처의 핵심 공급업체였습니다. 이 역할은 에지 장치 칩이 AI 모델을 실행하는 새로운 시대에 더욱 중요해집니다. 데이터 센터는 또한 이러한 진화에서 중요한 역할을 하며, 종종 가장 까다로운 AI 처리의 일부 또는 전부를 처리하고 결과를 에지 장치에 제공합니다.
데이터 센터가 전 세계적으로 확산됨에 따라 전력 소비가 점점 더 시급한 문제가 될 것입니다. 이 요인은 Arm의 최신 Neoverse CPU 아키텍처의 효율성에 대한 강조에 기여합니다. 이 회사는 이전 세대보다 50% 향상된 성능과 경쟁 x86 아키텍처를 사용하는 프로세서보다 와트당 20% 더 나은 성능을 자랑한다고 밝혔습니다.
Arm은 Amazon, Microsoft, Google, Oracle이 모두 범용 컴퓨팅과 CPU 기반 AI 추론 및 훈련을 위해 Arm Neoverse를 채택했다고 보고합니다. 예를 들어, 2024년에 Microsoft는 클라우드를 위해 설계된 최초의 맞춤형 실리콘인 Cobalt 100 프로세서가 Arm Neoverse를 기반으로 구축되었다고 발표했습니다. 가장 큰 AI 데이터 센터 중 일부는 Neoverse를 기반으로 하는 Hopper GPU와 Grace CPU를 결합한 NVIDIA의 Grace Hopper Superchip에 의존할 것입니다. Arm은 올해 자체 CPU를 출시할 예정이며 Meta가 초기 고객 중 하나입니다.
9. Gretel
지난 1년 동안 AI 회사는 웹에서 스크랩한 데이터의 양을 늘려 모델을 훈련하는 데 따른 수익 감소를 경험했습니다. 결과적으로 그들은 훈련 데이터의 양에서 질로 초점을 옮겼습니다. 이로 인해 게시자 파트너로부터 라이선스를 받은 비공개 및 전문 콘텐츠에 대한 투자가 증가했습니다. AI 연구원은 또한 사람이 생성하거나 사람이 주석을 추가한 훈련 데이터 내의 격차 또는 사각지대를 해결해야 합니다. 이를 위해 그들은 전문 AI 모델에 의해 생성된 합성 훈련 데이터에 점점 더 의존하고 있습니다.
Gretel은 2024년에 합성 훈련 데이터 생성 및 큐레이션을 전문으로 하여 명성을 얻었습니다. 이 회사는 개발자가 자연어 또는 SQL 프롬프트를 사용하여 미세 조정 및 테스트를 위한 합성 훈련 데이터 세트를 생성, 증강, 편집 및 큐레이션할 수 있는 주력 제품인 Gretel Navigator의 일반 가용성을 발표했습니다. 이 플랫폼은 이미 3,500억 개 이상의 훈련 데이터를 합성한 150,000명 이상의 개발자 커뮤니티를 유치했습니다.
다른 업계 관계자들은 Gretel의 기능에 주목했습니다. Gretel은 Google과 협력하여 Google Cloud 고객이 합성 훈련 데이터에 쉽게 액세스할 수 있도록 했습니다. Databricks와의 유사한 파트너십은 6월에 발표되어 Databricks의 엔터프라이즈 고객에게 Databricks 클라우드 내에서 실행되는 모델에 대한 합성 훈련 데이터에 대한 액세스 권한을 부여했습니다.
10. Mistral AI
프랑스의 생성 AI 분야 경쟁자인 Mistral AI는 프론티어 AI 모델 개발의 최전선에서 OpenAI, Anthropic, Google에 지속적으로 압력을 가하고 있습니다. Mistral AI는 2024년에 중요한 기술 발전을 통합한 일련의 새로운 모델을 출시하여 API의 직접 마케팅과 전략적 파트너십을 통해 빠른 비즈니스 성장을 보여주었습니다.
올해 초, 이 회사는 효율성을 향상시키기 위해 모델 매개변수의 전문 하위 집합만 쿼리를 처리하는 데 관여하는 ‘전문가 혼합’ 아키텍처를 혁신적으로 사용하는 것으로 유명한 Mixtral이라는 한 쌍의 오픈 소스 모델을 도입했습니다. 2024년 7월, Mistral은 1,230억 개의 매개변수를 가진 Mistral Large 2를 발표하여 코드 생성, 수학, 추론 및 함수 호출에서 상당한 개선을 보여주었습니다. 프랑스 회사는 또한 노트북이나 휴대폰에서 실행하도록 설계된 더 작은 모델인 Ministral 3B와 Ministral 8B를 출시하여 사용자가 제공한 약 50페이지 분량의 텍스트 컨텍스트 정보를 저장할 수 있습니다.
Mistral은 OpenAI와 같은 미국 AI 회사의 저렴하고 유연한 대안으로 자리매김하여 유럽에서 성공을 거두었습니다. 또한 2024년 동안 미국 엔터프라이즈 시장으로의 확장을 계속했습니다. 6월에 회사는 벤처 캐피털 회사인 General Catalyst가 주도하는 6억 4천만 달러의 자금 조달 라운드를 확보하여 Mistral의 가치를 약 62억 달러로 높였습니다.
11. Fireworks AI
Fireworks는 AI 배포를 위한 인프라 구축과 관련된 복잡한 엔지니어링 작업을 간소화하는 맞춤형 런타임 환경을 제공합니다. Fireworks 플랫폼을 사용하여 기업은 100개 이상의 AI 모델을 통합한 다음 특정 사용 사례에 맞게 사용자 정의하고 미세 조정할 수 있습니다.
이 회사는 2024년에 AI 산업의 주요 트렌드를 활용할 수 있는 새로운 제품을 도입했습니다. 첫째, 개발자는 AI 기반 모델 및 애플리케이션의 응답성에 점점 더 집중하고 있습니다. Fireworks는 모델 성능을 가속화하고 네트워크 대기 시간을 줄이는 최적화 및 양자화 소프트웨어인 FireAttention V2를 출시했습니다. 둘째, AI 시스템은 API를 통해 다양한 모델과 도구를 호출하는 ‘파이프라인’으로 점점 더 진화하고 있습니다. 새로운 FireFunction V2 소프트웨어는 특히 기업이 더 많은 자율 AI 애플리케이션을 배포함에 따라 이러한 점점 더 복잡해지는 시스템 내의 모든 구성 요소에 대한 오케스트레이터 역할을 합니다.
Fireworks는 2024년에 매출 성장이 600% 증가했다고 보고합니다. 고객 기반에는 Verizon, DoorDash, Uber, Quora, Upwork와 같은 유명 기업이 포함됩니다.
12. Snorkel AI
기업은 AI 시스템의 효율성이 데이터의 품질과 직접적으로 관련되어 있음을 깨달았습니다. Snorkel AI는 기업이 AI 모델에서 사용할 독점 데이터를 준비하도록 지원하여 번창하는 비즈니스를 구축했습니다. 이 회사의 Snorkel Flow AI 데이터 개발 플랫폼은 기업이 독점 데이터에 레이블을 지정하고 큐레이션하는 비용 효율적인 방법을 제공하여 특정 비즈니스 요구에 맞게 AI 모델을 사용자 정의하고 평가하는 데 사용할 수 있도록 합니다.
2024년에 Snorkel은 이미지에 대한 지원을 확장하여 기업이 자체 독점 이미지를 사용하여 다중 모드 AI 모델 및 이미지 생성기를 훈련할 수 있도록 했습니다. 또한 플랫폼에 검색 증강 생성(RAG)을 통합하여 고객이 독점 지식 기반 콘텐츠와 같은 긴 문서에서 AI 훈련에 사용할 가장 관련성이 높은 정보 세그먼트만 검색할 수 있도록 했습니다. Snorkel의 머신 러닝 전문가가 고객과 직접 프로젝트에 협력하는 새로운, 더 높은 수준의 서비스 수준인 Snorkel Custom이 있습니다.
Snorkel은 2024년에 연간 예약이 전년 대비 두 배로 증가했으며 지난 3년 동안 매년 연간 예약이 세 자릿수 증가했다고 밝혔습니다. 이 회사에 따르면 현재 6개의 가장 큰 은행이 Chubb, Wayfair, Experian과 같은 브랜드와 함께 Snorkel Flow를 사용하고 있습니다.
13. CalypsoAI
AI가 중요한 의사 결정 프로세스에서 점점 더 중요한 역할을 함에 따라 기업은 모델의 내부 작동에 대한 가시성을 높이고자 합니다. 이러한 요구는 편향 및 기타 의도하지 않은 출력을 지속적으로 모니터링해야 하는 규제 산업에서 특히 두드러집니다. CalypsoAI는 이러한 새로운 요구 사항을 가장 먼저 인식한 회사 중 하나였으며 AI 인프라 플랫폼의 향상된 설명 가능성 기능으로 신속하게 대응했습니다.
Calypso를 차별화하는 것은 관찰 가능성 기술의 폭입니다. 2024년에 회사는 모델 공급업체나 모델이 내부적으로 호스팅되는지 외부적으로 호스팅되는지에 관계없이 회사가 사용할 수 있는 모든 활성 생성 AI 모델을 보호, 감사 및 모니터링하여 엔터프라이즈 데이터를 보호하는 AI 보안 플랫폼을 출시했습니다. Calypso는 또한 사용자가 AI 결정의 기본 논리를 실시간으로 관찰할 수 있는 새로운 시각화 도구를 도입했습니다.
시장은 AI 관찰 가능성에 대한 Calypso의 강조에 긍정적으로 반응하고 있습니다. 이 회사는 2024년에 매출이 10배 증가했으며 2025년에는 5배 더 증가할 것으로 예상합니다.
14. Galileo
AI 시스템은 1년 전에 비해 사실적 환각 및 편향 사례가 적지만 여전히 이러한 문제에 취약합니다. 이는 AI를 사용하는 모든 비즈니스, 특히 의료 및 은행과 같은 규제 부문의 비즈니스에 심각한 우려를 제기합니다. AI 개발 팀은 Galileo의 AI 플랫폼을 사용하여 모델 및 애플리케이션의 정확성을 측정, 최적화 및 모니터링합니다.
2024년 초, 2년간의 연구 끝에 Galileo는 유해한 출력을 식별하도록 훈련된 평가 모델 제품군인 Luna를 출시했습니다. 이러한 모델을 통해 Galileo의 플랫폼은 LLM이 응답을 구성하는 토큰을 어셈블할 때 LLM의 작업을 신속하게 조사하고 점수를 매길 수 있습니다. 이 프로세스는 약 200밀리초가 소요되므로 AI의 출력이 사용자에게 표시되지 않도록 플래그를 지정하고 방지할 수 있는 충분한 시간이 있습니다. 표준 LLM이 이 작업을 수행할 수 있지만 훨씬 더 비쌉니다. Galileo의 특수 목적 모델은 우수한 정확성, 비용 효율성, 그리고 결정적으로 속도를 제공합니다.
Galileo는 2024년에 고객 기반이 4배 증가했으며 Twilio, Reddit, Chegg, Comcast, JPMorgan Chase를 포함한 고객을 확보했다고 보고합니다. 이 스타트업은 또한 Hugging Face CEO Clément Delangue와 같은 투자자로부터 6,800만 달러의 자금 조달 라운드를 확보했습니다.
15. Runway
AI를 둘러싼 가장 중요한 열망과 불안 중 하나는 영화 제작의 예술과 경제를 혁신할 수 있을 만큼 충분한 품질의 비디오를 생성할 수 있는 잠재력입니다. 이 기술은 2024년에 이 미래를 향해 상당한 진전을 이루었으며, 뉴욕에 기반을 둔 비디오 생성 스타트업인 Runway가 주도적인 역할을 했습니다. 2024년 6월 Runway의 Gen-3 Alpha 모델 출시는 생성된 비디오의 신뢰성이 크게 향상되어 AI 커뮤니티에서 널리 호평을 받았습니다.
Runway는 또한 AI 비디오의 미학을 제어하기 위한 도구에 주요 개선 사항을 구현했습니다. 이 모델은 이미지와 비디오 모두에서 훈련되었으며 텍스트 또는 이미지 입력을 기반으로 비디오를 생성할 수 있습니다. 이 회사는 이후 Gen-3의 더 비용 효율적이고 빠른 버전인 Gen-3 Alpha Turbo를 출시했습니다.
할리우드는 생성 AI의 발전을 면밀히 주시해 왔으며, Runway는 엔터테인먼트 업계 관계자를 위한 맞춤형 모델 버전을 제작하기 시작했다고 보고합니다. 2024년 9월 Lionsgate Studios와 공식 파트너십을 체결했습니다. Runway는 제작 회사를 위한 맞춤형 모델을 개발하고 Lionsgate의 영화 카탈로그에서 훈련했습니다. Runway는 이 모델이 Lionsgate의 영화 제작자, 감독 및 기타 크리에이티브가 ‘시간, 비용 및 리소스를 절약’하면서 작업을 ‘증강’하는 데 도움이 되도록 설계되었다고 밝혔습니다. Runway는 Lionsgate와의 계약이 다른 제작 회사와의 유사한 협력을 위한 청사진 역할을 할 수 있다고 믿습니다.
16. Cerebras Systems
AI 시스템, 특히 대규모 프론티어 모델은 대규모로 작동하기 위해 막대한 컴퓨팅 성능이 필요합니다. 이를 위해서는 작업 부하를 분산하기 위해 수천 또는 수백만 개의 칩을 상호 연결해야 합니다. 그러나 칩 간의 네트워크 연결은 성능 병목 현상을 유발할 수 있습니다. Cerebras Systems의 기술은 방대한 양의 컴퓨팅 성능을 단일의 매우 큰 칩에 통합하는 속도와 효율성 이점을 활용하도록 설계되었습니다.
예를 들어, 이 회사의 최신 WSE-3(3세대 Wafer Scale Engine) 칩은 저녁 식사 접시 크기인 814제곱밀리미터이며 Nvidia의 시장 선두 H100 칩보다 56배 더 큽니다. 이 칩은 무려 4조 개의 트랜지스터를 통합하고 44기가비트의 메모리를 제공합니다. 이러한 칩은 UAE 기반 AI 및 클라우드 컴퓨팅 회사인 G42와 협력하여 개발 중인 상호 연결된 슈퍼컴퓨터의 ‘별자리’인 Condor Galaxy와 같은 슈퍼컴퓨터를 형성하기 위해 클러스터링될 수 있습니다.
현재까지 Cerebras는 Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory, Los Alamos National Laboratory를 포함한 대규모 연구 기관에서 틈새 시장을 찾았습니다. 이 회사는 2024년 9월에 IPO를 신청했습니다. 투자 설명서에 따르면 회사의 매출은 2023년에 7,870만 달러로 3배 이상 증가했으며 2024년 상반기에는 1억 3,640만 달러로 급증했습니다.