2. Nvidia
Yapay zeka sistemlerinin giderek daha karmaşık hale gelme arayışı, büyük dil modeli geliştiricilerinden önemli yatırımlar almaya devam ediyor. Ancak, bir şirket zaten bu yapay zeka devriminin meyvelerini topluyor: Nvidia. Yapay zeka yarışını baskın grafik işlem birimleri (GPU’lar) ile ateşleyen Nvidia, şimdi çığır açan Blackwell işlemcisi ve platformu ile insan seviyesinde zekaya ulaşma arayışını desteklemek için mükemmel bir konumda.
Blackwell, selefi H100’ü geride bırakarak genel model eğitimi görevleri için 2,5 kata kadar daha fazla güç sunarken, aynı zamanda önemli ölçüde daha az enerji tüketiyor. Google, Meta, Microsoft, OpenAI, Tesla ve xAI gibi endüstri devleri de dahil olmak üzere büyük veri merkezi operatörleri ve yapay zeka laboratuvarları, yüz binlerce Blackwell GPU’su satın almayı taahhüt etti.
DeepSeek ve Alibaba gibi Çinli şirketlerin son modelleri, daha eski, daha az güçlü Nvidia GPU’ları kullanarak etkileyici yetenekler sergilemiş olsa da, Nvidia sadece yerinde saymıyor. Şirket, ilaç keşfinden (Biopharma için Clara) ve otonom araçlardan (Drive AGX) video prodüksiyonuna (Holoscan) ve dijital ikizlere (Omniverse) kadar çeşitli uygulamalar için aktif olarak platformlar geliştiriyor. Nvidia, çok çeşitli gerçek dünya senaryolarında yapay zeka ilerlemesini teşvik ederek, gelecekteki modeller daha az hesaplama gücüne dayansa bile sürekli büyüme için kendisini stratejik olarak konumlandırıyor.
3. OpenAI
2019’dan beri OpenAI, modellerini eğitim verilerini ve bilgi işlem kaynaklarını genişleterek sürekli olarak geliştirdi; bu strateji endüstri genelinde yaygın olarak benimsendi. Ancak, bu ölçeklendirme yaklaşımından azalan getiriler belirgin hale geldikçe, OpenAI, AGI’ye (çoğu görevde insan zekasını aşan modeller) ulaşmak için yeni bir yola ihtiyaç olduğunu fark etti.
OpenAI’nin çözümü o1 modeli şeklinde geldi. OpenAI, ön eğitim sırasında kaynakları ölçeklendirmeye odaklanmak yerine, o1’i çıkarım sırasında, yani modelin aktif olarak dağıtıldığı ve kullanıcı istemlerine yanıt verdiği aşamada daha fazla zaman ve bilgi işlem gücü ayıracak şekilde tasarladı. Bu süreçte o1, hem kullanıcıdan hem de ilgili veri kaynaklarından bağlamsal bilgileri toplar ve saklar. Bir yanıta giden en uygun yolu belirlemek için bir deneme yanılma metodolojisi kullanır. Sonuç, karmaşık sorulara doktora düzeyinde yanıtların üretilmesi ve o1’in performans kıyaslama sıralamalarında zirveye yükselmesidir.
OpenAI, ChatGPT Plus abonelerine o1’in ‘deneysel’ ve ‘mini’ sürümlerini sunuyor. Ek olarak, ChatGPT Pro adlı premium bir hizmet, aylık 200 ABD Doları karşılığında tam o1 modeline sınırsız erişim sağlıyor. Aralık 2024’te OpenAI, o1’in halefi o3’ü tanıttı ve Şubat 2025’te ücretli kullanıcılara bilim, matematik ve kodlama için optimize edilmiş daha küçük, daha hızlı bir varyant olan o3-mini’ye erişim izni verdi. OpenAI’nin yeni muhakeme modellerinin en derin etkisi, çıkarım zamanında bilgi işlem ölçeklendirmesinin, AGI’ye giden yolda zekada daha fazla atılım elde etmek için umut verici bir yol olarak doğrulanmasıdır.
4. Google DeepMind
Günümüzün sohbet robotlarının yolunu açan temel araştırma, 2010’ların sonlarında Google’da ortaya çıktı. Google, ChatGPT’nin ortaya çıkmasından çok önce büyük bir dil modeliyle çalışan bir sohbet robotu geliştirmişti. Ancak, güvenlik, gizlilik ve yasal sonuçlarla ilgili endişelerin, halka açık olarak yayınlanmasını geciktiren temkinli bir yaklaşıma yol açtığı bildirildi. Bu tereddüt, Google’ın ChatGPT’nin lansmanının tetiklediği yapay zeka yarışında başlangıçta geride kalmasına neden oldu.
Google DeepMind’ın Gemini 2.0’ının 2024’te piyasaya sürülmesi, Google’ın kesin olarak geri dönüşünü işaret etti. Gemini 2.0, görüntüleri, videoyu, sesi ve bilgisayar kodunu metinle aynı akıcılıkla işleyebilen ve üretebilen, doğası gereği çok modlu ilk kitle pazarı yapay zeka modelini temsil ediyor. Bu yetenek, modelin video klipleri ve hatta bir telefon kamerasından canlı video akışlarını dikkate değer bir hız ve doğrulukla analiz etmesini ve bunlar hakkında akıl yürütmesini sağlıyor.
Gemini ayrıca, Haritalar ve Arama gibi diğer Google hizmetlerini kontrol etme yeteneğiyle de öne çıkıyor. Bu entegrasyon, Google’ın yapay zeka araştırmalarını yerleşik bilgi ve üretkenlik araçlarıyla birleştiren stratejik avantajını sergiliyor. Gemini, otonom çalışma ve kullanıcı adına karmaşık sorunları çözme yeteneği sergileyen ilk yapay zeka modelleri arasında yer alıyor. Gemini 2.0 Flash Thinking Experimental modeli, kullanıcılara bir yanıta ulaşmak için kullanılan düşünce süreci hakkında bile bilgi veriyor. Ayrıca, Aralık ayında Google, çevrimiçi market alışverişi gibi görevleri otonom olarak gerçekleştirmek için tasarlanmış Gemini tabanlı bir aracı yapay zeka özelliği olan Project Mariner’ı tanıttı.
5. Anthropic
Üretken yapay zekanın birincil uygulamaları şimdiye kadar metin yazma, özetleme ve görüntü oluşturma etrafında yoğunlaştı. Bir sonraki evrimsel adım, büyük dil modellerini muhakeme yetenekleri ve araçları kullanma kapasitesi ile donatmaktır. Anthropic’in ‘Computer Use’ modeli, bu geleceğe erken bir bakış sağladı.
2024’te Claude 3.5 Sonnet ile başlayan Anthropic’in modeli, internet içeriği de dahil olmak üzere ekrandaki etkinliği algılayabiliyor. Bir imleci manipüle edebilir, düğmelere tıklayabilir ve metin girebilir. Bir tanıtım videosu, Claude’un tarayıcı sekmelerinde açık olan web sitelerinde bulunan bilgileri kullanarak bir formu tamamlama yeteneğini sergiledi. Kişisel bir web sitesi oluşturmak veya bir günlük gezi lojistiğini organize etmek gibi görevleri yerine getirebilir. Yapay zekanın yeni sekmeler açmak, arama yapmak ve veri alanlarını doldurmak gibi otonom eylemleri gerçekten dikkat çekicidir.
Model şu anda daha yavaş bir hızda çalışsa ve her zaman doğru cevabı vermese de, Anthropic sınırlamalarını belirleyip ele aldıkça hızlı iyileşmeler bekleniyor. Google’ın yukarıda bahsedilen Project Mariner’ı Aralık ayında Anthropic’in liderliğini takip etti ve OpenAI, Ocak 2025’te kendi bilgisayar kullanım modeli Operator’ı tanıttı. Şubat 2025’te Anthropic, zorlu sorgular için otomatik olarak muhakeme modunu etkinleştirebilen daha büyük bir model olan bir sonraki büyük yinelemesi Claude 3.7 Sonnet’i tanıttı.
6. Microsoft
Microsoft’un Phi modellerinin geliştirilmesi, şirketin araştırmacılarının 2023’te sorduğu temel bir sorudan kaynaklandı: ‘Ortaya çıkan zekanın belirtilerini gösterebilen en küçük model boyutu nedir?’ Bu sorgu, sınırlı bellek, işlem gücü veya bağlantının olduğu ve hızlı yanıt sürelerinin çok önemli olduğu senaryolarda optimum performans için tasarlanmış modeller olan ‘küçük dil modelleri’nin evriminde önemli bir an oldu.
2024 boyunca Microsoft, eğitim sırasında açıkça dahil edilmeyen muhakeme ve mantık yetenekleri sergileyen iki nesil küçük model yayınladı. Nisan ayında şirket, muhtemelen önemli ölçüde daha büyük ve daha yetenekli LLM’ler tarafından üretilen sentetik veriler üzerinde eğitilmeleri nedeniyle dil, muhakeme, kodlama ve matematik kıyaslamalarında üstün olan bir dizi Phi-3 modelini tanıttı. Açık kaynaklı Phi-3’ün varyantları, 2024 boyunca Hugging Face’de 4,5 milyondan fazla kez indirildi.
2024’ün sonlarında Microsoft, muhakeme odaklı görevlerde Phi-3 modellerini geride bırakan ve hatta GPQA (bilimsel sorular) ve MATH kıyaslamalarında OpenAI’nin GPT-4o’sunu geride bırakan Phi-4 küçük dil modellerini başlattı. Microsoft, modeli açık kaynaklı ve açık ağırlıklı bir lisans altında yayınlayarak, geliştiricilerin telefonlar veya dizüstü bilgisayarlar için uç modeller veya uygulamalar oluşturmalarını sağladı. Bir aydan kısa bir süre içinde Phi-4, Hugging Face’de 375.000 indirme topladı.
7. Amazon
Amazon AWS, yakın zamanda yapay zeka için Trainium işlemcisinin yeni bir sürümü olan Trainium2’yi tanıttı ve potansiyel olarak belirli ortamlarda Nvidia GPU’larının hakimiyetine meydan okudu. Trainium2, en büyük üretken yapay zeka modellerini eğitmek ve model dağıtımından sonra çıkarım zamanı işlemleri için gereken devasa bilgi işlem gücünü sağlamak üzere tasarlandı. AWS, Trainium’un karşılaştırılabilir görevler için GPU’lardan %30 ila %40 daha uygun maliyetli olduğunu iddia ediyor.
Trainium2, ilk Trainium çipinde gözlemlenen güç ve yazılım entegrasyonu eksikliklerini gidererek Amazon’u potansiyel olarak Nvidia ile arayı kapatmaya konumlandırıyor. (AWS’nin kendisinin GPU’lar için Nvidia’ya büyük ölçüde bağımlı olmaya devam ettiğini belirtmek gerekir.) Nvidia’yı yerinden etmek, müşterilerin modellerinin çipin kaynaklarını nasıl kullandığı konusunda ayrıntılı kontrol sağlayan Nvidia’nın CUDA yazılım katmanına kilitlenmesi nedeniyle zorlu bir iştir. Amazon, araştırmacılara çip çekirdeği etkileşimleri üzerinde ayrıntılı kontrol sağlayan CUDA’ya benzer kendi çekirdek kontrol yazılım katmanı Neuron Kernel Interface’i (NKI) sunuyor.
Trainium2’nin henüz büyük ölçekte test edilmediğini belirtmek önemlidir. AWS şu anda, yapay zeka çiplerinin performansını büyük ölçekli dağıtımlarda optimize etme konusunda değerli bilgiler sağlayabilecek olan Anthropic için 400.000 Trainium2 çipli bir sunucu kümesi inşa ediyor.
8. Arm
İngiliz yarı iletken tasarımcısı Arm, uzun zamandır telefonlar, sensörler ve IoT donanımı gibi küçük cihazlara güç veren çiplerde kullanılan mimarinin kilit sağlayıcısı olmuştur. Bu rol, uç cihaz çiplerinin yapay zeka modellerini yürüteceği yeni ortaya çıkan çağda daha da önemli hale geliyor. Veri merkezleri de bu evrimde çok önemli bir rol oynayacak, genellikle en zorlu yapay zeka işlemlerinin bir kısmını veya tamamını ele alacak ve sonuçları uç cihazlara iletecek.
Veri merkezleri dünya çapında çoğaldıkça, elektrik güç tüketimleri giderek daha acil bir endişe haline gelecektir. Bu faktör, Arm’ın en son Neoverse CPU mimarisindeki verimliliğe verilen öneme katkıda bulunuyor. Şirkete göre, önceki nesillere göre %50 performans artışı ve rakip x86 mimarilerini kullanan işlemcilere kıyasla watt başına %20 daha iyi performans sunuyor.
Arm, Amazon, Microsoft, Google ve Oracle’ın hem genel amaçlı bilgi işlem hem de CPU tabanlı yapay zeka çıkarımı ve eğitimi için Arm Neoverse’i benimsediğini bildiriyor. Örneğin, 2024’te Microsoft, bulut için tasarlanan ilk özel silikonu olan Cobalt 100 işlemcisinin Arm Neoverse üzerine inşa edildiğini duyurdu. En büyük yapay zeka veri merkezlerinden bazıları, bir Hopper GPU’sunu ve Neoverse tabanlı bir Grace CPU’sunu birleştiren NVIDIA’nın Grace Hopper Superchip’ine güvenecek. Arm’ın bu yıl Meta’nın ilk müşterilerinden biri olduğu kendi CPU’sunu piyasaya sürmesi planlanıyor.
9. Gretel
Geçtiğimiz yıl boyunca, yapay zeka şirketleri, web’den kazınan giderek artan hacimlerde veriyle modellerini eğitmekten azalan getiriler elde ettiler. Sonuç olarak, odaklarını eğitim verilerinin miktarından kalitesine kaydırdılar. Bu, yayıncı ortaklarından lisanslanan kamuya açık olmayan ve özel içeriğe yapılan yatırımın artmasına yol açtı. Yapay zeka araştırmacılarının ayrıca insan tarafından oluşturulan veya insan tarafından açıklanan eğitim verilerindeki boşlukları veya kör noktaları ele almaları gerekiyor. Bu amaçla, giderek daha fazla özel yapay zeka modelleri tarafından üretilen sentetik eğitim verilerine yöneldiler.
Gretel, 2024 yılında sentetik eğitim verilerinin oluşturulması ve küratörlüğünde uzmanlaşarak öne çıktı. Şirket, geliştiricilerin ince ayar ve test için sentetik eğitim veri kümeleri oluşturmak, artırmak, düzenlemek ve küratörlüğünü yapmak için doğal dil veya SQL istemlerini kullanmalarını sağlayan amiral gemisi ürünü Gretel Navigator’ın genel kullanılabilirliğini duyurdu. Platform, 350 milyardan fazla eğitim verisi parçası sentezleyen 150.000’den fazla geliştiriciden oluşan bir topluluğu şimdiden cezbetti.
Diğer endüstri oyuncuları Gretel’in yeteneklerini fark etti. Gretel, sentetik eğitim verilerini Google Cloud müşterileri için kolayca erişilebilir hale getirmek için Google ile ortaklık kurdu. Databricks ile benzer bir ortaklık Haziran ayında duyuruldu ve Databricks’in kurumsal müşterilerine Databricks bulutunda çalışan modelleri için sentetik eğitim verilerine erişim izni verildi.
10. Mistral AI
Fransa’nın üretken yapay zeka alanındaki yarışmacısı Mistral AI, sınır yapay zeka modeli geliştirmesinin ön saflarında OpenAI, Anthropic ve Google üzerinde sürekli olarak baskı uyguladı. Mistral AI, 2024 yılında önemli teknolojik gelişmeleri içeren bir dizi yeni model yayınladı ve hem API’lerinin doğrudan pazarlaması hem de stratejik ortaklıklar yoluyla hızlı iş büyümesi gösterdi.
Yılın başlarında şirket, bir sorguyu işlemek için modelin parametrelerinin yalnızca özel bir alt kümesinin devreye girdiği ve verimliliği artıran yenilikçi ‘uzmanlar karışımı’ mimarisini kullanmasıyla dikkat çeken Mixtral adlı bir çift açık kaynaklı model tanıttı. Temmuz 2024’te Mistral, 123 milyar parametreyle kod oluşturma, matematik, muhakeme ve işlev çağırmada önemli iyileşmeler sergileyen Mistral Large 2’yi duyurdu. Fransız şirketi ayrıca, kullanıcının sağladığı yaklaşık 50 metin sayfası bağlamsal bilgiyi depolayabilen, dizüstü bilgisayarlarda veya telefonlarda yürütülmek üzere tasarlanmış daha küçük modeller olan Ministral 3B ve Ministral 8B’yi piyasaya sürdü.
Mistral, kendisini OpenAI gibi ABD yapay zeka şirketlerine düşük maliyetli ve esnek bir alternatif olarak konumlandırarak Avrupa’da başarı elde etti. Ayrıca 2024 boyunca ABD kurumsal pazarına genişlemesini sürdürdü. Haziran ayında şirket, risk sermayesi şirketi General Catalyst liderliğindeki 640 milyon dolarlık bir finansman turu sağlayarak Mistral’in değerlemesini yaklaşık 6,2 milyar dolara çıkardı.
11. Fireworks AI
Fireworks, yapay zeka dağıtımları için altyapı oluşturmayla ilişkili genellikle karmaşık mühendislik işlerini kolaylaştıran özel bir çalışma zamanı ortamı sunar. Fireworks platformunu kullanan işletmeler, 100’den fazla yapay zeka modelini entegre edebilir ve ardından bunları özel kullanım durumları için özelleştirebilir ve ince ayar yapabilir.
Şirket, 2024 yılında yapay zeka endüstrisindeki kilit trendlerden yararlanmak için onu konumlandıracak yeni ürünler tanıttı. İlk olarak, geliştiriciler yapay zeka destekli modellerin ve uygulamaların yanıt verme hızına giderek daha fazla odaklandılar. Fireworks, model performansını hızlandıran ve ağ gecikmesini azaltan optimizasyon ve niceleme yazılımı FireAttention V2’yi piyasaya sürdü. İkinci olarak, yapay zeka sistemleri giderek API’ler aracılığıyla çeşitli modelleri ve araçları çağıran ‘boru hatları’na dönüşüyor. Yeni FireFunction V2 yazılımı, özellikle işletmeler daha otonom yapay zeka uygulamaları dağıttıkça, bu giderek karmaşıklaşan sistemlerdeki tüm bileşenler için bir orkestratör görevi görüyor.
Fireworks, 2024’te gelir büyümesinde %600’lük bir artış bildirdi. Müşteri tabanı Verizon, DoorDash, Uber, Quora ve Upwork gibi önde gelen şirketleri içeriyor.
12. Snorkel AI
İşletmeler, yapay zeka sistemlerinin etkinliğinin doğrudan verilerinin kalitesiyle bağlantılı olduğunu fark ettiler. Snorkel AI, işletmelerin tescilli verilerini yapay zeka modellerinde kullanmak üzere hazırlamalarına yardımcı olarak gelişen bir iş kurdu. Şirketin Snorkel Flow yapay zeka veri geliştirme platformu, şirketlerin tescilli verilerini etiketlemeleri ve küratörlüğünü yapmaları için uygun maliyetli bir yöntem sağlayarak, özel iş ihtiyaçları için yapay zeka modellerini özelleştirmede ve değerlendirmede kullanılmasını sağlıyor.
2024’te Snorkel, şirketlerin kendi tescilli görüntülerini kullanarak çok modlu yapay zeka modellerini ve görüntü oluşturucuları eğitmesine olanak tanıyan görüntüleri de içerecek şekilde desteğini genişletti. Ayrıca, müşterilerin tescilli bilgi tabanı içeriği gibi uzun belgelerden yalnızca en alakalı bilgi segmentlerini yapay zeka eğitiminde kullanmak üzere almalarını sağlayan alma artırılmış üretimi (RAG) platformuna dahil etti. Snorkel Custom, Snorkel’in makine öğrenimi uzmanlarının projelerde doğrudan müşterilerle işbirliği yaptığı yeni, daha yüksek dokunuşlu bir hizmet seviyesidir.
Snorkel, 2024 yılında yıllık rezervasyonlarının iki katına çıktığını ve son üç yılın her birinde yıllık rezervasyonlarda üç haneli büyüme olduğunu belirtiyor. Şirkete göre, en büyük bankaların altısı artık Chubb, Wayfair ve Experian gibi markalarla birlikte Snorkel Flow’u kullanıyor.
13. CalypsoAI
Yapay zeka kritik karar alma süreçlerinde giderek daha önemli bir rol oynadıkça, işletmeler modellerin iç işleyişine daha fazla görünürlük arıyor. Bu ihtiyaç, özellikle önyargı ve diğer istenmeyen çıktılar için sürekli olarak izlenmesi gereken düzenlenmiş endüstrilerde belirgindir. CalypsoAI, bu ortaya çıkan gereksinimi ilk fark edenler arasındaydı ve yapay zeka altyapı platformunda gelişmiş açıklanabilirlik özellikleriyle hızla yanıt verdi.
Calypso’yu ayıran şey, gözlemlenebilirlik teknolojisinin genişliğidir. 2024 yılında şirket, bir şirketin kullanabileceği tüm aktif üretken yapay zeka modellerini, model satıcısından veya modelin dahili veya harici olarak barındırılıp barındırılmadığından bağımsız olarak güvence altına alarak, denetleyerek ve izleyerek kurumsal verileri koruyan AI Security Platform’unu başlattı. Calypso ayrıca, kullanıcıların yapay zeka kararlarının altında yatan mantığı gerçek zamanlı olarak gözlemlemelerine olanak tanıyan yeni görselleştirme araçları da tanıttı.
Piyasa, Calypso’nun yapay zeka gözlemlenebilirliğine verdiği öneme olumlu yanıt veriyor. Şirket, 2024 yılında gelirlerinde on kat artış bildirdi ve 2025’te beş kat daha artış bekliyor.
14. Galileo
Yapay zeka sistemleri bir yıl öncesine kıyasla daha az olgusal halüsinasyon ve önyargı vakası sergilese de, bu sorunlara karşı hala hassastırlar. Bu, yapay zekayı kullanan herhangi bir işletme için, özellikle de sağlık ve bankacılık gibi düzenlenmiş sektörlerdeki işletmeler için önemli bir endişe kaynağıdır. Yapay zeka geliştirme ekipleri, modellerinin ve uygulamalarının doğruluğunu ölçmek, optimize etmek ve izlemek için Galileo’nun yapay zeka platformunu kullanır.
2024’ün başlarında, iki yıllık araştırmanın ardından Galileo, zararlı çıktıları belirlemek için eğitilmiş bir değerlendirme modelleri paketi olan Luna’yı yayınladı. Bu modeller, Galileo’nun platformunun, yanıtını oluşturan belirteçleri bir araya getirirken bir LLM’nin çalışmasını hızla incelemesini ve puanlamasını sağlar. Bu işlem yaklaşık 200 milisaniye sürer ve yapay zekanın çıktısının bir kullanıcıya gösterilmesini işaretlemek ve önlemek için yeterli zaman tanır. Standart bir LLM bu görevi yerine getirebilse de, önemli ölçüde daha pahalı olurdu. Galileo’nun amaca yönelik modelleri, üstün doğruluk, maliyet verimliliği ve en önemlisi hız sunar.
Galileo, 2024 yılında müşteri tabanının dört katına çıktığını ve müşterileri arasında Twilio, Reddit, Chegg, Comcast ve JPMorgan Chase’in bulunduğunu bildiriyor. Girişim ayrıca Hugging Face CEO’su Clément Delangue gibi yatırımcılardan 68 milyon dolarlık bir finansman turu sağladı.
15. Runway
Yapay zekayı çevreleyen en önemli özlemlerden ve endişelerden biri, film yapımcılığının sanatında ve ekonomisinde devrim yaratacak yeterli kalitede video üretme potansiyelidir. Teknoloji, New York merkezli bir video oluşturma girişimi olan Runway’in öncü bir rol oynamasıyla 2024’te bu geleceğe doğru önemli adımlar attı. Runway’in Haziran 2024’te Gen-3 Alpha modelini piyasaya sürmesi, oluşturulan videonun önemli ölçüde iyileştirilmiş inandırıcılığı nedeniyle yapay zeka topluluğunda geniş çapta beğeni topladı.
Runway ayrıca yapay zeka videosunun estetiğini kontrol etme araçlarında önemli geliştirmeler uyguladı. Model hem görüntüler hem de video üzerinde eğitildi ve metin veya görüntü girdilerine dayalı olarak video oluşturabilir. Şirket daha sonra Gen-3’ün daha uygun maliyetli ve daha hızlı bir sürümü olan Gen-3 Alpha Turbo’yu piyasaya sürdü.
Hollywood, üretken yapay zekanın ilerlemesini yakından takip ediyor ve Runway, eğlence endüstrisi oyuncuları için modellerinin özel sürümlerini üretmeye başladığını bildiriyor. Eylül 2024’te Lionsgate Studios ile resmi bir ortaklık kurdu. Runway, yapım şirketi için özel bir model geliştirdi ve onu Lionsgate’in film kataloğu üzerinde eğitti. Runway, modelin Lionsgate’in film yapımcılarına, yönetmenlerine ve diğer yaratıcılarına ‘zaman, para ve kaynaklardan tasarruf ederken’ çalışmalarını ‘artırmalarına’ yardımcı olmayı amaçladığını belirtiyor. Runway, Lionsgate ile olan düzenlemesinin diğer yapım şirketleriyle benzer işbirlikleri için bir plan görevi görebileceğine inanıyor.
16. Cerebras Systems
Yapay zeka sistemleri, özellikle büyük sınır modelleri, ölçekte çalışmak için muazzam bilgi işlem gücü gerektirir. Bu, iş yükünü dağıtmak için binlerce veya milyonlarca çipin birbirine bağlanmasını gerektirir. Ancak, çipler arasındaki ağ bağlantıları performans darboğazlarına neden olabilir. Cerebras Systems’in teknolojisi, çok büyük miktarda bilgi işlem gücünü tek, olağanüstü büyük bir çip üzerinde entegre etmenin hız ve verimlilik avantajlarından yararlanmak üzere tasarlanmıştır.
Şirketin en son WSE-3 (üçüncü nesil Wafer Scale Engine) çipi, örneğin, bir yemek tabağı büyüklüğünde 814 milimetre kare ölçülerindedir ve Nvidia’nın pazar lideri H100 çiplerinden 56 kat daha büyüktür. Çip, şaşırtıcı bir şekilde 4 trilyon transistör içeriyor ve 44 gigabit bellek sunuyor. Bu çipler, Cerebras’ın en büyük müşterisi olan BAE merkezli bir yapay zeka ve bulut bilişim şirketi olan G42 ile işbirliği içinde geliştirdiği birbirine bağlı süper bilgisayarların bir ‘takımyıldızı’ olan Condor Galaxy gibi süper bilgisayarlar oluşturmak için kümelenebilir.
Bugüne kadar Cerebras, Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory ve Los Alamos National Laboratory dahil olmak üzere büyük araştırma kuruluşlarında bir niş buldu. Şirket, Eylül 2024’te halka arz başvurusunda bulundu. İzahname, şirketin satışlarının 2023’te 78,7 milyon dolara üç kattan fazla arttığını ve 2024’ün ilk yarısında 136,4 milyon dolara yükseldiğini gösteriyor.