1. Nvidia
Pencarian sistem AI yang semakin canggih terus mendorong investasi besar dari pengembang model bahasa besar. Namun, satu perusahaan sudah menikmati buah dari revolusi AI ini: Nvidia. Setelah memicu perlombaan AI dengan unit pemrosesan grafis (GPU) yang dominan, Nvidia kini berada pada posisi yang sempurna dengan prosesor dan platform Blackwell yang inovatif untuk mendukung pengejaran kecerdasan tingkat manusia.
Blackwell melampaui pendahulunya, H100, menawarkan daya hingga 2,5 kali lebih besar untuk tugas pelatihan model umum, sekaligus mengonsumsi energi yang jauh lebih sedikit. Operator pusat data dan lab AI utama, termasuk raksasa industri seperti Google, Meta, Microsoft, OpenAI, Tesla, dan xAI, telah berkomitmen untuk membeli ratusan ribu GPU Blackwell.
Sementara model terbaru dari perusahaan Tiongkok seperti DeepSeek dan Alibaba telah menunjukkan kemampuan yang mengesankan menggunakan GPU Nvidia yang lebih tua dan kurang bertenaga, Nvidia tidak berpuas diri. Perusahaan secara aktif mengembangkan platform untuk beragam aplikasi, mulai dari penemuan obat (Clara for Biopharma) dan kendaraan otonom (Drive AGX) hingga produksi video (Holoscan) dan kembaran digital (Omniverse). Dengan mendorong kemajuan AI di berbagai spektrum skenario dunia nyata, Nvidia secara strategis memposisikan dirinya untuk pertumbuhan berkelanjutan, bahkan jika model masa depan menunjukkan ketergantungan yang berkurang pada kekuatan komputasi semata.
2. OpenAI
Sejak 2019, OpenAI secara konsisten meningkatkan modelnya dengan memperluas data pelatihan dan sumber daya komputasi, sebuah strategi yang telah diadopsi secara luas di seluruh industri. Namun, ketika hasil yang semakin berkurang dari pendekatan penskalaan ini menjadi jelas, OpenAI menyadari perlunya jalur baru untuk mencapai AGI – model yang melampaui kecerdasan manusia dalam sebagian besar tugas.
Solusi OpenAI hadir dalam bentuk model o1. Alih-alih hanya berfokus pada peningkatan sumber daya selama pelatihan awal, OpenAI merekayasa o1 untuk mengalokasikan lebih banyak waktu dan daya komputasi selama inferensi, fase di mana model secara aktif digunakan dan menanggapi permintaan pengguna. Selama proses ini, o1 mengumpulkan dan menyimpan informasi kontekstual, baik dari pengguna maupun sumber data yang relevan. Ia menggunakan metodologi coba-coba untuk menentukan jalur optimal menuju jawaban. Hasilnya adalah generasi respons tingkat PhD untuk pertanyaan rumit, mendorong o1 ke puncak peringkat benchmark kinerja.
OpenAI menawarkan versi ‘eksperimental’ dan ‘mini’ dari o1 kepada pelanggan ChatGPT Plus. Selain itu, layanan premium bernama ChatGPT Pro menyediakan akses tak terbatas ke model o1 lengkap seharga $200 per bulan. Pada bulan Desember 2024, OpenAI meluncurkan penerus o1, o3, dan pada bulan Februari 2025, memberikan akses kepada pengguna berbayar ke o3-mini, varian yang lebih kecil dan lebih cepat yang dioptimalkan untuk sains, matematika, dan pengkodean. Dampak paling besar dari model penalaran baru OpenAI adalah validasi peningkatan komputasi pada waktu inferensi sebagai jalan yang menjanjikan untuk mencapai terobosan lebih lanjut dalam kecerdasan di jalan menuju AGI.
3. Google DeepMind
Penelitian dasar yang membuka jalan bagi chatbot saat ini berasal dari Google pada akhir 2010-an. Google telah mengembangkan chatbot bertenaga model bahasa besar jauh sebelum kemunculan ChatGPT. Namun, kekhawatiran mengenai keamanan, privasi, dan implikasi hukum dilaporkan menyebabkan pendekatan yang hati-hati, menunda rilis publiknya. Keragu-raguan ini mengakibatkan Google awalnya tertinggal dalam perlombaan AI yang dipicu oleh peluncuran ChatGPT.
Peluncuran Gemini 2.0 Google DeepMind pada tahun 2024 menandakan kebangkitan definitif Google. Gemini 2.0 mewakili model AI pasar massal pertama yang secara inheren multimodal, mampu memproses dan menghasilkan gambar, video, audio, dan kode komputer dengan kefasihan yang sama seperti teks. Kemampuan ini memungkinkan model untuk menganalisis dan bernalar tentang klip video, atau bahkan umpan video langsung dari kamera ponsel, dengan kecepatan dan akurasi yang luar biasa.
Gemini juga menonjol karena kemampuannya untuk mengontrol layanan Google lainnya, seperti Maps dan Search. Integrasi ini menunjukkan keunggulan strategis Google, menggabungkan penelitian AI-nya dengan informasi dan alat produktivitas yang mapan. Gemini adalah salah satu model AI pertama yang menunjukkan operasi otonom dan kapasitas untuk bernalar melalui masalah kompleks atas nama pengguna. Model Gemini 2.0 Flash Thinking Experimental bahkan memberi pengguna wawasan tentang proses berpikir yang digunakan untuk sampai pada jawaban. Lebih lanjut, pada bulan Desember, Google memperkenalkan Project Mariner, fitur AI agentik berbasis Gemini yang dirancang untuk melakukan tugas-tugas seperti belanja bahan makanan online secara mandiri.
4. Anthropic
Aplikasi utama AI generatif sejauh ini berpusat di sekitar penulisan teks, peringkasan, dan pembuatan gambar. Langkah evolusi berikutnya melibatkan melengkapi model bahasa besar dengan kemampuan penalaran dan kapasitas untuk menggunakan alat. Model ‘Computer Use’ Anthropic memberikan gambaran awal tentang masa depan ini.
Dimulai dengan Claude 3.5 Sonnet pada tahun 2024, model Anthropic dapat melihat aktivitas di layar, termasuk konten internet. Ia dapat memanipulasi kursor, mengklik tombol, dan memasukkan teks. Sebuah video demonstrasi memamerkan kemampuan Claude untuk melengkapi formulir menggunakan informasi yang tersedia di situs web yang terbuka di tab browser. Ia dapat menyelesaikan tugas-tugas seperti membuat situs web pribadi atau mengatur logistik perjalanan sehari. Tindakan otonom AI, seperti membuka tab baru, melakukan pencarian, dan mengisi bidang data, sungguh luar biasa.
Meskipun model saat ini beroperasi pada kecepatan yang lebih lambat dan mungkin tidak selalu menghasilkan jawaban yang benar, perbaikan yang cepat diantisipasi karena Anthropic mengidentifikasi dan mengatasi keterbatasannya. Project Mariner Google yang disebutkan di atas mengikuti jejak Anthropic pada bulan Desember, dan OpenAI memperkenalkan model penggunaan komputernya sendiri, Operator, pada Januari 2025. Pada Februari 2025, Anthropic meluncurkan iterasi utama berikutnya, Claude 3.7 Sonnet, model yang lebih besar yang mampu secara otomatis menggunakan mode penalaran untuk kueri yang menantang.
5. Microsoft
Pengembangan model Phi Microsoft berasal dari pertanyaan mendasar yang diajukan oleh para peneliti perusahaan pada tahun 2023: “Berapa ukuran model terkecil yang dapat menunjukkan tanda-tanda kecerdasan yang muncul?” Pertanyaan ini menandai momen penting dalam evolusi ‘model bahasa kecil,’ model yang dirancang untuk kinerja optimal dalam skenario dengan memori, daya pemrosesan, atau konektivitas terbatas, di mana waktu respons yang cepat sangat penting.
Sepanjang tahun 2024, Microsoft merilis dua generasi model kecil yang menampilkan kemampuan penalaran dan logika yang tidak secara eksplisit dimasukkan selama pelatihan. Pada bulan April, perusahaan meluncurkan serangkaian model Phi-3 yang unggul dalam benchmark bahasa, penalaran, pengkodean, dan matematika, kemungkinan karena pelatihan mereka pada data sintetis yang dihasilkan oleh LLM yang jauh lebih besar dan lebih mumpuni. Varian dari Phi-3 sumber terbuka diunduh lebih dari 4,5 juta kali di Hugging Face selama tahun 2024.
Pada akhir tahun 2024, Microsoft meluncurkan model bahasa kecil Phi-4, yang melampaui model Phi-3 dalam tugas-tugas yang berfokus pada penalaran dan bahkan mengungguli GPT-4o OpenAI pada benchmark GPQA (pertanyaan ilmiah) dan MATH. Microsoft merilis model tersebut di bawah lisensi sumber terbuka dan bobot terbuka, memberdayakan pengembang untuk membuat model edge atau aplikasi untuk ponsel atau laptop. Dalam waktu kurang dari sebulan, Phi-4 mengumpulkan 375.000 unduhan di Hugging Face.
6. Amazon
Amazon AWS baru-baru ini memperkenalkan Trainium2, versi baru dari prosesor Trainium untuk AI, yang berpotensi menantang dominasi GPU Nvidia dalam pengaturan tertentu. Trainium2 direkayasa untuk memberikan daya komputasi besar yang dibutuhkan untuk melatih model AI generatif terbesar dan untuk operasi waktu inferensi setelah penerapan model. AWS mengklaim bahwa Trainium 30% hingga 40% lebih hemat biaya daripada GPU untuk tugas yang sebanding.
Trainium2 mengatasi kekurangan daya dan integrasi perangkat lunak yang diamati pada chip Trainium pertama, memposisikan Amazon untuk berpotensi menutup kesenjangan dengan Nvidia. (Perlu dicatat bahwa AWS sendiri tetap sangat bergantung pada Nvidia untuk GPU.) Menggantikan Nvidia adalah tantangan yang berat karena penguncian pelanggan dengan lapisan perangkat lunak CUDA Nvidia, yang memberi para peneliti kontrol granular atas bagaimana model mereka memanfaatkan sumber daya chip. Amazon menawarkan lapisan perangkat lunak kontrol kernelnya sendiri, Neuron Kernel Interface (NKI), yang, mirip dengan CUDA, memberikan para peneliti kontrol yang sangat baik atas interaksi kernel chip.
Penting untuk dicatat bahwa Trainium2 belum diuji dalam skala besar. AWS saat ini sedang membangun klaster server dengan 400.000 chip Trainium2 untuk Anthropic, yang dapat memberikan wawasan berharga dalam mengoptimalkan kinerja chip AI-nya dalam penerapan skala besar.
7. Arm
Perancang semikonduktor Inggris, Arm, telah lama menjadi penyedia utama arsitektur yang digunakan dalam chip yang memberi daya pada perangkat kecil seperti ponsel, sensor, dan perangkat keras IoT. Peran ini menjadi semakin penting di era yang muncul di mana chip perangkat edge akan menjalankan model AI. Pusat data juga akan memainkan peran penting dalam evolusi ini, sering kali menangani sebagian atau seluruh pemrosesan AI yang paling menuntut dan memberikan hasil ke perangkat edge.
Ketika pusat data berkembang biak secara global, konsumsi daya listrik mereka akan menjadi perhatian yang semakin mendesak. Faktor ini berkontribusi pada penekanan pada efisiensi dalam arsitektur CPU Neoverse terbaru Arm. Ini membanggakan peningkatan kinerja 50% dibandingkan generasi sebelumnya dan kinerja per watt 20% lebih baik dibandingkan dengan prosesor yang menggunakan arsitektur x86 yang bersaing, menurut perusahaan.
Arm melaporkan bahwa Amazon, Microsoft, Google, dan Oracle semuanya telah mengadopsi Arm Neoverse untuk komputasi tujuan umum dan inferensi dan pelatihan AI berbasis CPU. Misalnya, pada tahun 2024, Microsoft mengumumkan bahwa silikon kustom pertamanya yang dirancang untuk cloud, prosesor Cobalt 100, dibangun di atas Arm Neoverse. Beberapa pusat data AI terbesar akan mengandalkan Grace Hopper Superchip NVIDIA, yang menggabungkan GPU Hopper dan CPU Grace berdasarkan Neoverse. Arm dijadwalkan untuk meluncurkan CPU-nya sendiri tahun ini, dengan Meta sebagai salah satu pelanggan awalnya.
8. Gretel
Selama setahun terakhir, perusahaan AI telah mengalami penurunan hasil dari pelatihan model mereka dengan volume data yang semakin meningkat yang diambil dari web. Akibatnya, mereka telah mengalihkan fokus mereka dari kuantitas data pelatihan ke kualitasnya. Hal ini telah menyebabkan peningkatan investasi dalam konten non-publik dan khusus yang dilisensikan dari mitra penerbit. Peneliti AI juga perlu mengatasi kesenjangan atau titik buta dalam data pelatihan yang dihasilkan atau dianotasi oleh manusia. Untuk tujuan ini, mereka semakin beralih ke data pelatihan sintetis yang dihasilkan oleh model AI khusus.
Gretel menjadi terkenal pada tahun 2024 dengan berspesialisasi dalam pembuatan dan kurasi data pelatihan sintetis. Perusahaan mengumumkan ketersediaan umum produk unggulannya, Gretel Navigator, yang memungkinkan pengembang untuk menggunakan bahasa alami atau permintaan SQL untuk menghasilkan, menambah, mengedit, dan mengkurasi kumpulan data pelatihan sintetis untuk penyetelan dan pengujian. Platform ini telah menarik komunitas lebih dari 150.000 pengembang yang telah mensintesis lebih dari 350 miliar keping data pelatihan.
Pemain industri lain telah memperhatikan kemampuan Gretel. Gretel bermitra dengan Google untuk membuat data pelatihan sintetisnya mudah diakses oleh pelanggan Google Cloud. Kemitraan serupa dengan Databricks diumumkan pada bulan Juni, memberikan pelanggan perusahaan Databricks akses ke data pelatihan sintetis untuk model mereka yang berjalan di dalam cloud Databricks.
9. Mistral AI
Mistral AI, pesaing Prancis di arena AI generatif, secara konsisten memberikan tekanan pada OpenAI, Anthropic, dan Google di garis depan pengembangan model AI frontier. Mistral AI merilis serangkaian model baru yang menggabungkan kemajuan teknologi yang signifikan pada tahun 2024, menunjukkan pertumbuhan bisnis yang cepat melalui pemasaran langsung API-nya dan kemitraan strategis.
Sebelumnya pada tahun itu, perusahaan memperkenalkan sepasang model sumber terbuka yang disebut Mixtral, yang terkenal karena penggunaan inovatif arsitektur ‘campuran ahli’, di mana hanya subset khusus dari parameter model yang digunakan untuk menangani kueri, meningkatkan efisiensi. Pada bulan Juli 2024, Mistral mengumumkan Mistral Large 2, yang, dengan 123 miliar parameter, menunjukkan peningkatan yang signifikan dalam pembuatan kode, matematika, penalaran, dan pemanggilan fungsi. Perusahaan Prancis itu juga merilis Ministral 3B dan Ministral 8B, model yang lebih kecil yang dirancang untuk eksekusi di laptop atau ponsel, yang mampu menyimpan sekitar 50 halaman teks informasi kontekstual yang diberikan oleh pengguna.
Mistral telah mencapai kesuksesan di Eropa dengan memposisikan dirinya sebagai alternatif berbiaya rendah dan fleksibel untuk perusahaan AI AS seperti OpenAI. Ia juga melanjutkan ekspansinya ke pasar perusahaan AS selama tahun 2024. Pada bulan Juni, perusahaan mengamankan putaran pendanaan $640 juta, yang dipimpin oleh perusahaan modal ventura General Catalyst, meningkatkan valuasi Mistral menjadi sekitar $6,2 miliar.
10. Fireworks AI
Fireworks menawarkan lingkungan runtime khusus yang merampingkan pekerjaan rekayasa yang seringkali rumit yang terkait dengan pembangunan infrastruktur untuk penerapan AI. Dengan menggunakan platform Fireworks, perusahaan dapat mengintegrasikan lebih dari 100 model AI dan kemudian menyesuaikan dan menyempurnakannya untuk kasus penggunaan khusus mereka.
Perusahaan memperkenalkan produk baru selama tahun 2024 yang akan memposisikannya untuk memanfaatkan tren utama dalam industri AI. Pertama, pengembang menjadi semakin fokus pada responsivitas model dan aplikasi bertenaga AI. Fireworks memulai debutnya FireAttention V2, perangkat lunak optimasi dan kuantisasi yang mempercepat kinerja model dan mengurangi latensi jaringan. Kedua, sistem AI semakin berkembang menjadi ‘pipeline’ yang memanggil berbagai model dan alat melalui API. Perangkat lunak FireFunction V2 yang baru bertindak sebagai orkestrator untuk semua komponen dalam sistem yang semakin kompleks ini, terutama karena perusahaan menerapkan lebih banyak aplikasi AI otonom.
Fireworks melaporkan peningkatan 600% dalam pertumbuhan pendapatan pada tahun 2024. Basis pelanggannya mencakup perusahaan terkemuka seperti Verizon, DoorDash, Uber, Quora, dan Upwork.
11. Snorkel AI
Perusahaan telah menyadari bahwa efektivitas sistem AI mereka terkait langsung dengan kualitas data mereka. Snorkel AI telah membangun bisnis yang berkembang dengan membantu perusahaan dalam mempersiapkan data kepemilikan mereka untuk digunakan dalam model AI. Platform pengembangan data AI Snorkel Flow perusahaan menyediakan metode hemat biaya bagi perusahaan untuk memberi label dan mengkurasi data kepemilikan mereka, memungkinkan penggunaannya dalam menyesuaikan dan mengevaluasi model AI untuk kebutuhan bisnis khusus mereka.
Pada tahun 2024, Snorkel memperluas dukungannya untuk menyertakan gambar, memungkinkan perusahaan untuk melatih model AI multimodal dan generator gambar menggunakan gambar kepemilikan mereka sendiri. Ia juga memasukkan retrieval augmented generation (RAG) ke dalam platformnya, memungkinkan pelanggan untuk mengambil hanya segmen informasi yang paling relevan dari dokumen panjang, seperti konten basis pengetahuan kepemilikan, untuk digunakan dalam pelatihan AI. Snorkel Custom, tingkat layanan baru yang lebih tinggi, melibatkan pakar pembelajaran mesin Snorkel yang berkolaborasi langsung dengan pelanggan dalam proyek.
Snorkel menyatakan bahwa pemesanan tahunan dari tahun ke tahun berlipat ganda selama tahun 2024, dengan pertumbuhan tiga digit dalam pemesanan tahunan untuk masing-masing dari tiga tahun terakhir. Enam bank terbesar sekarang menggunakan Snorkel Flow, menurut perusahaan, bersama dengan merek seperti Chubb, Wayfair, dan Experian.
12. CalypsoAI
Karena AI memainkan peran yang semakin penting dalam proses pengambilan keputusan yang kritis, perusahaan mencari peningkatan visibilitas ke dalam cara kerja model. Kebutuhan ini sangat terasa di industri yang diatur yang harus terus memantau bias dan output yang tidak diinginkan lainnya. CalypsoAI adalah salah satu yang pertama mengenali persyaratan yang muncul ini dan dengan cepat merespons dengan fitur penjelasan yang ditingkatkan dalam platform infrastruktur AI-nya.
Yang membedakan Calypso adalah luasnya teknologi observabilitasnya. Pada tahun 2024, perusahaan meluncurkan Platform Keamanan AI-nya, yang melindungi data perusahaan dengan mengamankan, mengaudit, dan memantau semua model AI generatif aktif yang mungkin digunakan perusahaan, terlepas dari vendor model atau apakah model tersebut dihosting secara internal atau eksternal. Calypso juga memperkenalkan alat visualisasi baru yang memungkinkan pengguna untuk mengamati logika yang mendasari keputusan AI secara real time.
Pasar merespons secara positif penekanan Calypso pada observabilitas AI. Perusahaan melaporkan peningkatan pendapatan sepuluh kali lipat selama tahun 2024 dan mengantisipasi peningkatan lima kali lipat lebih lanjut pada tahun 2025.
13. Galileo
Sementara sistem AI menunjukkan lebih sedikit contoh halusinasi faktual dan bias dibandingkan dengan tahun lalu, mereka tetap rentan terhadap masalah ini. Ini menimbulkan kekhawatiran yang signifikan bagi bisnis apa pun yang menggunakan AI, terutama yang berada di sektor yang diatur seperti perawatan kesehatan dan perbankan. Tim pengembangan AI menggunakan platform AI Galileo untuk mengukur, mengoptimalkan, dan memantau keakuratan model dan aplikasi mereka.
Pada awal tahun 2024, setelah dua tahun penelitian, Galileo merilis Luna, serangkaian model evaluasi yang dilatih untuk mengidentifikasi output yang berbahaya. Model-model ini memungkinkan platform Galileo untuk dengan cepat meneliti dan menilai pekerjaan LLM saat ia merakit token yang membentuk responsnya. Proses ini memakan waktu sekitar 200 milidetik, memberikan waktu yang cukup untuk menandai dan mencegah output AI ditampilkan kepada pengguna. Sementara LLM standar dapat melakukan tugas ini, itu akan jauh lebih mahal. Model yang dibuat khusus Galileo menawarkan akurasi, efisiensi biaya, dan, yang terpenting, kecepatan yang unggul.
Galileo melaporkan peningkatan empat kali lipat basis pelanggannya pada tahun 2024, dengan klien termasuk Twilio, Reddit, Chegg, Comcast, dan JPMorgan Chase. Startup ini juga mengamankan putaran pendanaan $68 juta dari investor seperti CEO Hugging Face, Clément Delangue.
14. Runway
Salah satu aspirasi—dan kecemasan—yang paling signifikan seputar AI adalah potensinya untuk menghasilkan video dengan kualitas yang cukup untuk merevolusi seni dan ekonomi pembuatan film. Teknologi ini membuat langkah substansial menuju masa depan ini pada tahun 2024, dengan Runway, startup pembuatan video yang berbasis di New York, memainkan peran utama. Peluncuran model Gen-3 Alpha Runway pada bulan Juni 2024 mendapat pujian luas dalam komunitas AI karena peningkatan yang signifikan dalam kepercayaan video yang dihasilkan.
Runway juga menerapkan peningkatan besar pada alatnya untuk mengontrol estetika video AI. Model ini dilatih pada gambar dan video dan dapat menghasilkan video berdasarkan input teks atau gambar. Perusahaan kemudian merilis Gen-3 Alpha Turbo, versi Gen-3 yang lebih hemat biaya dan lebih cepat.
Hollywood telah memantau dengan cermat kemajuan AI generatif, dan Runway melaporkan bahwa mereka telah mulai memproduksi versi khusus dari modelnya untuk pemain industri hiburan. Ia menjalin kemitraan formal dengan Lionsgate Studios pada bulan September 2024. Runway mengembangkan model khusus untuk perusahaan produksi dan melatihnya pada katalog film Lionsgate. Runway menyatakan bahwa model tersebut dimaksudkan untuk membantu pembuat film, sutradara, dan materi iklan Lionsgate lainnya dalam ‘menambah’ pekerjaan mereka sambil ‘menghemat waktu, uang, dan sumber daya.’ Runway percaya bahwa pengaturannya dengan Lionsgate dapat berfungsi sebagai cetak biru untuk kolaborasi serupa dengan perusahaan produksi lainnya.
15. Cerebras Systems
Sistem AI, terutama model frontier besar, menuntut daya komputasi yang sangat besar untuk beroperasi dalam skala besar. Ini membutuhkan interkoneksi ribuan atau jutaan chip untuk mendistribusikan beban kerja. Namun, koneksi jaringan antar chip dapat menimbulkan hambatan kinerja. Teknologi Cerebras Systems dirancang untuk memanfaatkan keunggulan kecepatan dan efisiensi dari pengintegrasian sejumlah besar daya komputasi ke dalam satu chip yang sangat besar.
Chip WSE-3 (Wafer Scale Engine generasi ketiga) terbaru perusahaan, misalnya, berukuran 814 milimeter persegi, seukuran piring makan, dan 56 kali lebih besar dari chip H100 terkemuka di pasar Nvidia. Chip ini menggabungkan 4 triliun transistor yang mengejutkan dan menawarkan memori 44 gigabit. Chip ini dapat dikelompokkan untuk membentuk superkomputer, seperti Condor Galaxy, ‘konstelasi’ superkomputer yang saling berhubungan yang sedang dikembangkan Cerebras bekerja sama dengan pelanggan terbesarnya, G42, sebuah perusahaan AI dan komputasi awan yang berbasis di UEA.
Hingga saat ini, Cerebras telah menemukan ceruk di organisasi penelitian besar, termasuk Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory, dan Los Alamos National Laboratory. Perusahaan mengajukan IPO pada bulan September 2024. Prospektus menunjukkan bahwa penjualan perusahaan meningkat lebih dari tiga kali lipat menjadi $78,7 juta pada tahun 2023 dan melonjak menjadi $136,4 juta pada paruh pertama tahun 2024.