1. Nvidia
Dążenie do coraz bardziej wyrafinowanych systemów AI nadal napędza znaczne inwestycje ze strony twórców dużych modeli językowych. Jednak jedna firma już czerpie korzyści z tej rewolucji AI: Nvidia. Po rozpaleniu wyścigu AI dzięki swoim dominującym jednostkom przetwarzania grafiki (GPU), Nvidia jest teraz doskonale przygotowana dzięki swojemu przełomowemu procesorowi i platformie Blackwell, aby wspierać dążenie do inteligencji na poziomie ludzkim.
Blackwell przewyższa swojego poprzednika, H100, oferując do 2,5 razy większą moc do ogólnych zadań związanych z trenowaniem modeli, przy jednoczesnym zużyciu znacznie mniejszej ilości energii. Główni operatorzy centrów danych i laboratoria AI, w tym giganci branży, tacy jak Google, Meta, Microsoft, OpenAI, Tesla i xAI, zobowiązali się do zakupu setek tysięcy GPU Blackwell.
Podczas gdy najnowsze modele chińskich firm, takich jak DeepSeek i Alibaba, wykazały imponujące możliwości przy użyciu starszych, mniej wydajnych GPU Nvidia, Nvidia nie spoczywa na laurach. Firma aktywnie rozwija platformy do różnorodnych zastosowań, od odkrywania leków (Clara for Biopharma) i pojazdów autonomicznych (Drive AGX) po produkcję wideo (Holoscan) i cyfrowe bliźniaki (Omniverse). Wspierając postęp AI w szerokim spektrum scenariuszy świata rzeczywistego, Nvidia strategicznie pozycjonuje się na trwały wzrost, nawet jeśli przyszłe modele wykażą mniejsze uzależnienie od czystej mocy obliczeniowej.
2. OpenAI
Od 2019 roku OpenAI konsekwentnie ulepsza swoje modele, rozszerzając dane treningowe i zasoby obliczeniowe, co jest strategią szeroko przyjętą w branży. Jednak, gdy malejące zyski z tego podejścia skalowania stały się widoczne, OpenAI uznało potrzebę nowej ścieżki do osiągnięcia AGI – modeli, które przewyższają ludzką inteligencję w większości zadań.
Rozwiązanie OpenAI pojawiło się w postaci modelu o1. Zamiast skupiać się wyłącznie na skalowaniu zasobów podczas wstępnego szkolenia, OpenAI zaprojektowało o1 tak, aby przeznaczyć więcej czasu i mocy obliczeniowej podczas wnioskowania, fazy, w której model jest aktywnie wdrażany i odpowiada na zapytania użytkowników. Podczas tego procesu o1 gromadzi i przechowuje informacje kontekstowe, zarówno od użytkownika, jak i z odpowiednich źródeł danych. Wykorzystuje metodologię prób i błędów, aby określić optymalną ścieżkę do odpowiedzi. Rezultatem jest generowanie odpowiedzi na poziomie doktoranckim na skomplikowane pytania, co plasuje o1 na szczycie rankingów wydajności.
OpenAI oferuje ‘eksperymentalne’ i ‘mini’ wersje o1 subskrybentom ChatGPT Plus. Dodatkowo, usługa premium o nazwie ChatGPT Pro zapewnia nieograniczony dostęp do pełnego modelu o1 za 200 USD miesięcznie. W grudniu 2024 r. OpenAI zaprezentowało następcę o1, o3, a w lutym 2025 r. przyznało płatnym użytkownikom dostęp do o3-mini, mniejszego, szybszego wariantu zoptymalizowanego pod kątem nauki, matematyki i kodowania. Najbardziej doniosłym skutkiem nowych modeli rozumowania OpenAI jest potwierdzenie skalowania mocy obliczeniowej w czasie wnioskowania jako obiecującej drogi do osiągnięcia dalszych przełomów w inteligencji na drodze do AGI.
3. Google DeepMind
Podstawowe badania, które utorowały drogę dzisiejszym chatbotom, powstały w Google pod koniec 2010 roku. Google opracowało chatbota opartego na dużym modelu językowym na długo przed pojawieniem się ChatGPT. Jednak obawy dotyczące bezpieczeństwa, prywatności i implikacji prawnych podobno doprowadziły do ostrożnego podejścia, opóźniając jego publiczne wydanie. Ta wstrzemięźliwość spowodowała, że Google początkowo pozostawało w tyle w wyścigu AI wywołanym uruchomieniem ChatGPT.
Wydanie Gemini 2.0 Google DeepMind w 2024 roku zasygnalizowało ostateczny powrót Google. Gemini 2.0 to pierwszy masowy model AI, który jest z natury multimodalny, zdolny do przetwarzania i generowania obrazów, wideo, dźwięku i kodu komputerowego z taką samą biegłością jak tekst. Ta zdolność umożliwia modelowi analizowanie i rozumowanie na temat klipów wideo, a nawet transmisji wideo na żywo z kamery telefonu, z niezwykłą szybkością i dokładnością.
Gemini wyróżnia się również możliwością kontrolowania innych usług Google, takich jak Mapy i Wyszukiwarka. Ta integracja pokazuje strategiczną przewagę Google, łącząc badania nad AI z ugruntowanymi narzędziami informacyjnymi i produktywności. Gemini jest jednym z pierwszych modeli AI demonstrujących autonomiczną pracę i zdolność do rozumowania złożonych problemów w imieniu użytkownika. Model Gemini 2.0 Flash Thinking Experimental zapewnia nawet użytkownikom wgląd w proces myślowy zastosowany do uzyskania odpowiedzi. Ponadto w grudniu Google wprowadziło Project Mariner, opartą na Gemini funkcję agentowego AI, zaprojektowaną do autonomicznego wykonywania zadań, takich jak zakupy spożywcze online.
4. Anthropic
Podstawowe zastosowania generatywnej AI do tej pory koncentrowały się wokół pisania tekstów, podsumowywania i generowania obrazów. Następnym krokiem ewolucyjnym jest wyposażenie dużych modeli językowych w zdolności rozumowania i zdolność do korzystania z narzędzi. Model ‘Computer Use’ firmy Anthropic zapewnił wczesny wgląd w tę przyszłość.
Począwszy od Claude 3.5 Sonnet w 2024 roku, model Anthropic może postrzegać aktywność na ekranie, w tym zawartość internetową. Może manipulować kursorem, klikać przyciski i wprowadzać tekst. Film demonstracyjny pokazał, jak Claude wypełnia formularz, korzystając z informacji dostępnych na stronach internetowych otwartych w kartach przeglądarki. Może wykonywać zadania, takie jak tworzenie osobistej strony internetowej lub organizowanie logistyki jednodniowej wycieczki. Autonomiczne działania AI, takie jak otwieranie nowych kart, przeprowadzanie wyszukiwań i wypełnianie pól danych, są naprawdę niezwykłe.
Chociaż model działa obecnie wolniej i nie zawsze może dawać poprawną odpowiedź, oczekuje się szybkich ulepszeń, ponieważ Anthropic identyfikuje i usuwa jego ograniczenia. Wspomniany wcześniej Project Mariner Google podążył za przykładem Anthropic w grudniu, a OpenAI wprowadziło swój własny model korzystania z komputera, Operator, w styczniu 2025 roku. W lutym 2025 r. Anthropic zaprezentowało swoją kolejną dużą iterację, Claude 3.7 Sonnet, większy model zdolny do automatycznego włączania trybu rozumowania dla trudnych zapytań.
5. Microsoft
Rozwój modeli Phi firmy Microsoft wynikał z fundamentalnego pytania postawionego przez badaczy firmy w 2023 roku: ‘Jaki jest najmniejszy rozmiar modelu, który może wykazywać oznaki wyłaniającej się inteligencji?’. To zapytanie oznaczało kluczowy moment w ewolucji ‘małych modeli językowych’, modeli zaprojektowanych z myślą o optymalnej wydajności w scenariuszach z ograniczoną pamięcią, mocą obliczeniową lub łącznością, gdzie kluczowe są szybkie czasy reakcji.
W ciągu 2024 roku Microsoft wydał dwie generacje małych modeli, które wykazywały zdolności rozumowania i logiki, które nie zostały wyraźnie włączone podczas szkolenia. W kwietniu firma zaprezentowała serię modeli Phi-3, które przodowały w testach porównawczych języka, rozumowania, kodowania i matematyki, prawdopodobnie dzięki ich szkoleniu na danych syntetycznych generowanych przez znacznie większe i bardziej wydajne LLM. Warianty open-source’owego Phi-3 zostały pobrane ponad 4,5 miliona razy na Hugging Face w 2024 roku.
Pod koniec 2024 roku Microsoft uruchomił swoje małe modele językowe Phi-4, które przewyższyły modele Phi-3 w zadaniach zorientowanych na rozumowanie, a nawet przewyższyły GPT-4o OpenAI w testach porównawczych GPQA (pytania naukowe) i MATH. Microsoft wydał model na licencji open-source i open-weights, umożliwiając programistom tworzenie modeli brzegowych lub aplikacji na telefony lub laptopy. W ciągu niespełna miesiąca Phi-4 zgromadził 375 000 pobrań na Hugging Face.
6. Amazon
Amazon AWS niedawno wprowadził Trainium2, nową wersję swojego procesora Trainium dla AI, potencjalnie rzucając wyzwanie dominacji GPU Nvidia w określonych ustawieniach. Trainium2 został zaprojektowany, aby zapewnić ogromną moc obliczeniową wymaganą do szkolenia największych generatywnych modeli AI i do operacji w czasie wnioskowania po wdrożeniu modelu. AWS twierdzi, że Trainium jest od 30% do 40% bardziej opłacalny niż GPU do porównywalnych zadań.
Trainium2 rozwiązuje niedociągnięcia w zakresie mocy i integracji oprogramowania zaobserwowane w pierwszym chipie Trainium, pozycjonując Amazon do potencjalnego zmniejszenia dystansu do Nvidia. (Warto zauważyć, że sam AWS pozostaje w dużym stopniu uzależniony od Nvidia w zakresie GPU). Wyparcie Nvidia jest ogromnym wyzwaniem ze względu na przywiązanie klientów do warstwy oprogramowania CUDA firmy Nvidia, która zapewnia badaczom szczegółową kontrolę nad tym, jak ich modele wykorzystują zasoby chipa. Amazon oferuje własną warstwę oprogramowania do kontroli jądra, Neuron Kernel Interface (NKI), która, podobnie jak CUDA, zapewnia badaczom precyzyjną kontrolę nad interakcjami jądra chipa.
Należy zauważyć, że Trainium2 nie został jeszcze przetestowany na dużą skalę. AWS buduje obecnie klaster serwerów z 400 000 chipami Trainium2 dla Anthropic, co może dostarczyć cennych informacji na temat optymalizacji wydajności chipów AI w wdrożeniach na dużą skalę.
7. Arm
Brytyjski projektant półprzewodników Arm od dawna jest kluczowym dostawcą architektury używanej w chipach zasilających małe urządzenia, takie jak telefony, czujniki i sprzęt IoT. Ta rola nabiera większego znaczenia w nadchodzącej erze, w której chipy urządzeń brzegowych będą wykonywać modele AI. Centra danych również odegrają kluczową rolę w tej ewolucji, często obsługując część lub całość najbardziej wymagającego przetwarzania AI i dostarczając wyniki do urządzeń brzegowych.
Wraz z globalnym rozprzestrzenianiem się centrów danych, ich zużycie energii elektrycznej stanie się coraz pilniejszym problemem. Ten czynnik przyczynia się do nacisku na wydajność w najnowszej architekturze CPU Neoverse firmy Arm. Według firmy, oferuje ona 50% wzrost wydajności w porównaniu z poprzednimi generacjami i 20% lepszą wydajność na wat w porównaniu z procesorami wykorzystującymi konkurencyjne architektury x86.
Arm informuje, że Amazon, Microsoft, Google i Oracle przyjęły Arm Neoverse zarówno do obliczeń ogólnego przeznaczenia, jak i do wnioskowania i szkolenia AI opartego na CPU. Na przykład w 2024 roku Microsoft ogłosił, że jego pierwszy niestandardowy krzem zaprojektowany dla chmury, procesor Cobalt 100, został zbudowany na Arm Neoverse. Niektóre z największych centrów danych AI będą polegać na Grace Hopper Superchip firmy NVIDIA, który łączy GPU Hopper i CPU Grace oparte na Neoverse. Arm ma w tym roku wypuścić swój własny procesor, a Meta jest jednym z jego pierwszych klientów.
8. Gretel
W ciągu ostatniego roku firmy AI doświadczyły malejących zysków ze szkolenia swoich modeli przy użyciu coraz większych ilości danych pobieranych z sieci. W rezultacie przeniosły one swoją uwagę z samej ilości danych treningowych na ich jakość. Doprowadziło to do zwiększonych inwestycji w niepubliczne i specjalistyczne treści licencjonowane od partnerów wydawniczych. Badacze AI muszą również zająć się lukami lub martwymi punktami w swoich danych treningowych generowanych przez ludzi lub opatrzonych adnotacjami przez ludzi. W tym celu coraz częściej sięgają po syntetyczne dane treningowe generowane przez wyspecjalizowane modele AI.
Gretel zyskał na znaczeniu w 2024 roku, specjalizując się w tworzeniu i kuracji syntetycznych danych treningowych. Firma ogłosiła ogólną dostępność swojego flagowego produktu, Gretel Navigator, który umożliwia programistom używanie języka naturalnego lub zapytań SQL do generowania, rozszerzania, edytowania i kuracji syntetycznych zbiorów danych treningowych do dostrajania i testowania. Platforma przyciągnęła już społeczność ponad 150 000 programistów, którzy zsyntetyzowali ponad 350 miliardów danych treningowych.
Inni gracze branżowi zauważyli możliwości Gretel. Gretel nawiązał współpracę z Google, aby udostępnić swoje syntetyczne dane treningowe klientom Google Cloud. Podobne partnerstwo z Databricks zostało ogłoszone w czerwcu, zapewniając klientom korporacyjnym Databricks dostęp do syntetycznych danych treningowych dla ich modeli działających w chmurze Databricks.
9. Mistral AI
Mistral AI, francuski pretendent w arenie generatywnej AI, konsekwentnie wywiera presję na OpenAI, Anthropic i Google w czołówce rozwoju granicznych modeli AI. Mistral AI wydał serię nowych modeli zawierających znaczące postępy technologiczne w 2024 roku, demonstrując szybki rozwój biznesowy zarówno poprzez bezpośredni marketing swoich API, jak i strategiczne partnerstwa.
Wcześniej w tym roku firma wprowadziła parę modeli open-source o nazwie Mixtral, wyróżniających się innowacyjnym wykorzystaniem architektury ‘mixture of experts’, w której tylko wyspecjalizowany podzbiór parametrów modelu jest zaangażowany w obsługę zapytania, zwiększając wydajność. W lipcu 2024 r. Mistral ogłosił Mistral Large 2, który przy 123 miliardach parametrów wykazał znaczną poprawę w generowaniu kodu, matematyce, rozumowaniu i wywoływaniu funkcji. Francuska firma wydała również Ministral 3B i Ministral 8B, mniejsze modele przeznaczone do wykonywania na laptopach lub telefonach, zdolne do przechowywania około 50 stron tekstowych informacji kontekstowych dostarczonych przez użytkownika.
Mistral odniósł sukces w Europie, pozycjonując się jako tania i elastyczna alternatywa dla amerykańskich firm AI, takich jak OpenAI. Kontynuował również ekspansję na amerykański rynek korporacyjny w 2024 roku. W czerwcu firma zabezpieczyła rundę finansowania w wysokości 640 milionów dolarów, prowadzoną przez firmę venture capital General Catalyst, podnosząc wycenę Mistral do około 6,2 miliarda dolarów.
10. Fireworks AI
Fireworks oferuje niestandardowe środowisko uruchomieniowe, które usprawnia często złożone prace inżynieryjne związane z budowaniem infrastruktury dla wdrożeń AI. Korzystając z platformy Fireworks, przedsiębiorstwa mogą zintegrować dowolny z ponad 100 modeli AI, a następnie dostosować i dostroić je do swoich konkretnych przypadków użycia.
Firma wprowadziła nowe produkty w 2024 roku, które pozwolą jej wykorzystać kluczowe trendy w branży AI. Po pierwsze, programiści coraz bardziej koncentrują się na responsywności modeli i aplikacji opartych na AI. Fireworks zadebiutował FireAttention V2, oprogramowaniem do optymalizacji i kwantyzacji, które przyspiesza wydajność modelu i zmniejsza opóźnienia sieci. Po drugie, systemy AI coraz częściej ewoluują w ‘potoki’, które wywołują różne modele i narzędzia za pośrednictwem interfejsów API. Nowe oprogramowanie FireFunction V2 działa jako orkiestrator dla wszystkich komponentów w tych coraz bardziej złożonych systemach, szczególnie gdy przedsiębiorstwa wdrażają bardziej autonomiczne aplikacje AI.
Fireworks informuje o 600% wzroście przychodów w 2024 roku. Wśród jego klientów znajdują się znane firmy, takie jak Verizon, DoorDash, Uber, Quora i Upwork.
11. Snorkel AI
Przedsiębiorstwa zdały sobie sprawę, że skuteczność ich systemów AI jest bezpośrednio związana z jakością ich danych. Snorkel AI zbudował kwitnący biznes, pomagając przedsiębiorstwom w przygotowywaniu ich zastrzeżonych danych do wykorzystania w modelach AI. Platforma Snorkel Flow AI do rozwoju danych AI firmy zapewnia opłacalną metodę dla firm do etykietowania i kuracji ich zastrzeżonych danych, umożliwiając ich wykorzystanie w dostosowywaniu i ocenie modeli AI do ich konkretnych potrzeb biznesowych.
W 2024 roku Snorkel rozszerzył swoje wsparcie o obrazy, umożliwiając firmom szkolenie multimodalnych modeli AI i generatorów obrazów przy użyciu własnych zastrzeżonych obrazów. Zintegrował również generowanie rozszerzone o pobieranie (RAG) ze swoją platformą, umożliwiając klientom pobieranie tylko najbardziej istotnych segmentów informacji z długich dokumentów, takich jak zastrzeżona treść bazy wiedzy, do wykorzystania w szkoleniu AI. Snorkel Custom, nowy, bardziej zaawansowany poziom usług, obejmuje ekspertów Snorkel ds. uczenia maszynowego, którzy współpracują bezpośrednio z klientami nad projektami.
Snorkel twierdzi, że jego roczne rezerwacje wzrosły dwukrotnie w 2024 roku, z trzycyfrowym wzrostem rocznych rezerwacji w każdym z ostatnich trzech lat. Według firmy, sześć z największych banków korzysta obecnie ze Snorkel Flow, a także marki takie jak Chubb, Wayfair i Experian.
12. CalypsoAI
Ponieważ AI odgrywa coraz ważniejszą rolę w krytycznych procesach decyzyjnych, przedsiębiorstwa poszukują lepszego wglądu w wewnętrzne działanie modeli. Ta potrzeba jest szczególnie wyraźna w branżach regulowanych, które muszą stale monitorować stronniczość i inne niezamierzone wyniki. CalypsoAI była jedną z pierwszych firm, które rozpoznały to pojawiające się wymaganie i szybko zareagowały ulepszonymi funkcjami wyjaśnialności w swojej platformie infrastruktury AI.
Tym, co wyróżnia Calypso, jest szerokość jego technologii obserwowalności. W 2024 roku firma uruchomiła swoją platformę AI Security Platform, która chroni dane przedsiębiorstwa, zabezpieczając, audytując i monitorując wszystkie aktywne generatywne modele AI, z których może korzystać firma, niezależnie od dostawcy modelu i tego, czy model jest hostowany wewnętrznie czy zewnętrznie. Calypso wprowadziło również nowe narzędzia wizualizacyjne, które pozwalają użytkownikom obserwować logikę leżącą u podstaw decyzji AI w czasie rzeczywistym.
Rynek pozytywnie reaguje na nacisk Calypso na obserwowalność AI. Firma informuje o dziesięciokrotnym wzroście przychodów w 2024 roku i przewiduje dalszy pięciokrotny wzrost w 2025 roku.
13. Galileo
Chociaż systemy AI wykazują mniej przypadków halucynacji faktów i uprzedzeń w porównaniu z rokiem ubiegłym, nadal są podatne na te problemy. Stanowi to poważne zmartwienie dla każdej firmy korzystającej z AI, szczególnie tych w sektorach regulowanych, takich jak opieka zdrowotna i bankowość. Zespoły programistyczne AI wykorzystują platformę AI Galileo do mierzenia, optymalizacji i monitorowania dokładności swoich modeli i aplikacji.
Na początku 2024 roku, po dwóch latach badań, Galileo wydało Luna, pakiet modeli ewaluacyjnych przeszkolonych do identyfikowania szkodliwych wyników. Modele te umożliwiają platformie Galileo szybkie badanie i ocenianie pracy LLM, gdy składa on tokeny, które stanowią jego odpowiedź. Proces ten zajmuje około 200 milisekund, co daje wystarczająco dużo czasu, aby zasygnalizować i zapobiec wyświetleniu wyniku AI użytkownikowi. Chociaż standardowy LLM mógłby wykonać to zadanie, byłoby to znacznie droższe. Specjalnie zbudowane modele Galileo oferują lepszą dokładność, opłacalność i, co najważniejsze, szybkość.
Galileo informuje o czterokrotnym wzroście bazy klientów w 2024 roku, z klientami takimi jak Twilio, Reddit, Chegg, Comcast i JPMorgan Chase. Startup zabezpieczył również rundę finansowania w wysokości 68 milionów dolarów od inwestorów, takich jak CEO Hugging Face, Clément Delangue.
14. Runway
Jedną z największych aspiracji—i obaw—związanych z AI jest jej potencjał do generowania wideo o jakości wystarczającej do zrewolucjonizowania sztuki i ekonomii tworzenia filmów. Technologia poczyniła znaczne postępy w kierunku tej przyszłości w 2024 roku, a Runway, nowojorski startup zajmujący się generowaniem wideo, odegrał wiodącą rolę. Wydanie modelu Gen-3 Alpha firmy Runway w czerwcu 2024 roku spotkało się z szerokim uznaniem w społeczności AI za znacznie lepszą wiarygodność generowanego wideo.
Runway wdrożył również znaczące ulepszenia w swoich narzędziach do kontrolowania estetyki wideo AI. Model został przeszkolony zarówno na obrazach, jak i wideo i może generować wideo na podstawie danych wejściowych w postaci tekstu lub obrazu. Firma wydała następnie Gen-3 Alpha Turbo, bardziej opłacalną i szybszą wersję Gen-3.
Hollywood uważnie monitoruje postępy generatywnej AI, a Runway informuje, że rozpoczęło produkcję niestandardowych wersji swoich modeli dla graczy z branży rozrywkowej. We wrześniu 2024 roku nawiązał formalne partnerstwo z Lionsgate Studios. Runway opracował niestandardowy model dla firmy produkcyjnej i przeszkolił go na katalogu filmów Lionsgate. Runway twierdzi, że model ma pomóc filmowcom, reżyserom i innym twórcom Lionsgate w ‘rozszerzaniu’ ich pracy, jednocześnie ‘oszczędzając czas, pieniądze i zasoby’. Runway uważa, że jego umowa z Lionsgate może posłużyć jako wzór dla podobnych współprac z innymi firmami produkcyjnymi.
15. Cerebras Systems
Systemy AI, szczególnie duże modele graniczne, wymagają ogromnej mocy obliczeniowej, aby działać na dużą skalę. Wymaga to połączenia tysięcy lub milionów chipów w celu rozłożenia obciążenia. Jednak połączenia sieciowe między chipami mogą wprowadzać wąskie gardła wydajności. Technologia Cerebras Systems została zaprojektowana, aby wykorzystać zalety szybkości i wydajności wynikające z integracji ogromnej ilości mocy obliczeniowej na jednym, wyjątkowo dużym chipie.
Najnowszy chip firmy WSE-3 (Wafer Scale Engine trzeciej generacji), na przykład, mierzy 814 milimetrów kwadratowych, wielkości talerza obiadowego i jest 56 razy większy niż wiodące na rynku chipy H100 firmy Nvidia. Chip zawiera oszałamiające 4 biliony tranzystorów i oferuje 44 gigabity pamięci. Chipy te można łączyć w klastry, tworząc superkomputery, takie jak Condor Galaxy, ‘konstelacja’ połączonych superkomputerów, którą Cerebras rozwija we współpracy ze swoim największym klientem, G42, firmą AI i przetwarzania w chmurze z siedzibą w Zjednoczonych Emiratach Arabskich.
Do tej pory Cerebras znalazł niszę w dużych organizacjach badawczych, w tym Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory i Los Alamos National Laboratory. Firma złożyła wniosek o IPO we wrześniu 2024 roku. Prospekt emisyjny wskazuje, że sprzedaż firmy wzrosła ponad trzykrotnie do 78,7 miliona dolarów w 2023 roku i wzrosła do 136,4 miliona dolarów w pierwszej połowie 2024 roku.