ИИ Компании: Иновации 2025

2. Nvidia

Стремежът към все по-сложни AI системи продължава да стимулира значителни инвестиции от страна на разработчиците на големи езикови модели (LLM). Една компания обаче вече се радва на плодовете на тази AI революция: Nvidia. След като запали AI надпреварата със своите доминиращи графични процесори (GPU), Nvidia сега е перфектно позиционирана със своя революционен процесор и платформа Blackwell, за да подкрепи стремежа към интелигентност на човешко ниво.

Blackwell превъзхожда своя предшественик, H100, предлагайки до 2,5 пъти по-голяма мощност за общи задачи за обучение на модели, като същевременно консумира значително по-малко енергия. Основни оператори на центрове за данни и AI лаборатории, включително индустриални гиганти като Google, Meta, Microsoft, OpenAI, Tesla и xAI, са се ангажирали да закупят стотици хиляди Blackwell GPU.

Докато последните модели от китайски компании като DeepSeek и Alibaba демонстрираха впечатляващи възможности, използвайки по-стари, по-малко мощни GPU на Nvidia, Nvidia не се задоволява с постигнатото. Компанията активно разработва платформи за разнообразни приложения, вариращи от откриване на лекарства (Clara for Biopharma) и автономни превозни средства (Drive AGX) до видео продукция (Holoscan) и дигитални близнаци (Omniverse). Като насърчава напредъка на AI в широк спектър от сценарии от реалния свят, Nvidia стратегически се позиционира за устойчив растеж, дори ако бъдещите модели покажат намалена зависимост от чистата изчислителна мощност.

2. OpenAI

От 2019 г. OpenAI последователно подобрява своите модели чрез разширяване на данните за обучение и изчислителните ресурси – стратегия, която е широко възприета в индустрията. Въпреки това, тъй като намаляващата възвръщаемост от този подход на мащабиране стана очевидна, OpenAI осъзна необходимостта от нов път към постигане на AGI – модели, които надминават човешкия интелект в повечето задачи.

Решението на OpenAI дойде под формата на модела o1. Вместо да се фокусира единствено върху увеличаването на ресурсите по време на предварителното обучение, OpenAI проектира o1 да отделя повече време и изчислителна мощност по време на извода (inference) – фазата, в която моделът е активно внедрен и отговаря на потребителски заявки. По време на този процес o1 събира и запазва контекстуална информация, както от потребителя, така и от съответните източници на данни. Той използва методология проба-грешка, за да определи оптималния път към отговора. Резултатът е генерирането на отговори на ниво PhD по сложни въпроси, издигайки o1 до върха на класациите за ефективност.

OpenAI предлага ‘експериментални’ и ‘мини’ версии на o1 на абонатите на ChatGPT Plus. Освен това, премиум услуга, наречена ChatGPT Pro, осигурява неограничен достъп до пълния модел o1 за $200 на месец. През декември 2024 г. OpenAI представи наследника на o1, o3, а през февруари 2025 г. предостави на платените потребители достъп до o3-mini, по-малък, по-бърз вариант, оптимизиран за наука, математика и кодиране. Най-дълбокото въздействие на новите модели за разсъждения на OpenAI е валидирането на увеличаването на изчисленията по време на извода като обещаващ път за постигане на по-нататъшни пробиви в интелигентността по пътя към AGI.

2. Google DeepMind

Основните изследвания, които проправиха пътя за днешните чатботове, произхождат от Google в края на 2010-те години. Google беше разработил чатбот, задвижван от голям езиков модел, много преди появата на ChatGPT. Въпреки това, опасенията относно безопасността, поверителността и правните последици доведоха до предпазлив подход, забавяйки публичното му пускане. Тази колебливост доведе до първоначално изоставане на Google в последвалата AI надпревара, предизвикана от стартирането на ChatGPT.

Пускането на Gemini 2.0 на Google DeepMind през 2024 г. сигнализира за окончателното възраждане на Google. Gemini 2.0 представлява първият масов AI модел, който е по своята същност мултимодален, способен да обработва и генерира изображения, видео, аудио и компютърен код със същата плавност като текст. Тази способност позволява на модела да анализира и разсъждава върху видеоклипове или дори видео емисии на живо от камера на телефон, с забележителна скорост и точност.

Gemini също се отличава със способността си да контролира други услуги на Google, като Maps и Search. Тази интеграция демонстрира стратегическото предимство на Google, комбинирайки своите AI изследвания със своите утвърдени инструменти за информация и продуктивност. Gemini е сред първите AI модели, демонстриращи автономна работа и способността да разсъждават върху сложни проблеми от името на потребителя. Експерименталният модел Gemini 2.0 Flash Thinking дори предоставя на потребителите представа за мисловния процес, използван за достигане до отговор. Освен това, през декември Google представи Project Mariner, базирана на Gemini агентна AI функция, предназначена да изпълнява задачи като онлайн пазаруване на хранителни стоки автономно.

2. Anthropic

Основните приложения на генеративния AI досега се съсредоточаваха върху писане на текст, обобщаване и генериране на изображения. Следващата еволюционна стъпка включва оборудването на големите езикови модели със способности за разсъждение и капацитет за използване на инструменти. Моделът ‘Computer Use’ на Anthropic предостави ранен поглед към това бъдеще.

Започвайки с Claude 3.5 Sonnet през 2024 г., моделът на Anthropic може да възприема активността на екрана, включително интернет съдържание. Той може да манипулира курсор, да щрака върху бутони и да въвежда текст. Демонстрационно видео показа способността на Claude да попълва формуляр, използвайки информация, налична на уебсайтове, отворени в раздели на браузъра. Той може да изпълнява задачи като създаване на личен уебсайт или организиране на логистиката на еднодневна екскурзия. Автономните действия на AI, като отваряне на нови раздели, извършване на търсения и попълване на полета с данни, са наистина забележителни.

Въпреки че моделът в момента работи с по-бавни темпове и може да не винаги дава правилния отговор, се очакват бързи подобрения, тъй като Anthropic идентифицира и адресира своите ограничения. Гореспоменатият Project Mariner на Google последва примера на Anthropic през декември, а OpenAI представи свой собствен модел за използване на компютър, Operator, през януари 2025 г. През февруари 2025 г. Anthropic представи следващата си голяма итерация, Claude 3.7 Sonnet, по-голям модел, способен автоматично да включва режим на разсъждение за предизвикателни заявки.

2. Microsoft

Разработването на моделите Phi на Microsoft произтича от основен въпрос, зададен от изследователите на компанията през 2023 г.: ‘Какъв е най-малкият размер на модела, който може да покаже признаци на възникваща интелигентност?’. Това запитване бележи ключов момент в еволюцията на ‘малките езикови модели’ – модели, проектирани за оптимална производителност в сценарии с ограничена памет, процесорна мощност или свързаност, където бързите времена за реакция са от решаващо значение.

През 2024 г. Microsoft пусна две поколения малки модели, които показаха способности за разсъждение и логика, които не са били изрично включени по време на обучението. През април компанията представи серия от модели Phi-3, които се отличиха в езикови, разсъждаващи, кодиращи и математически бенчмаркове, вероятно поради обучението им върху синтетични данни, генерирани от значително по-големи и по-способни LLM. Варианти на Phi-3 с отворен код бяха изтеглени над 4,5 милиона пъти на Hugging Face през 2024 г.

В края на 2024 г. Microsoft пусна своите малки езикови модели Phi-4, които надминаха моделите Phi-3 в задачи, фокусирани върху разсъжденията, и дори надминаха GPT-4o на OpenAI в бенчмарковете GPQA (научни въпроси) и MATH. Microsoft пусна модела под лиценз с отворен код и отворени тегла, давайки възможност на разработчиците да създават крайни модели или приложения за телефони или лаптопи. За по-малко от месец Phi-4 събра 375 000 изтегляния на Hugging Face.

2. Amazon

Amazon AWS наскоро представи Trainium2, нова версия на своя процесор Trainium за AI, потенциално предизвиквайки доминацията на Nvidia GPU в специфични настройки. Trainium2 е проектиран да доставя огромната изчислителна мощност, необходима за обучение на най-големите генеративни AI модели и за операции по време на извода след внедряване на модела. AWS твърди, че Trainium е с 30% до 40% по-рентабилен от GPU за сравними задачи.

Trainium2 адресира недостатъците на мощността и софтуерната интеграция, наблюдавани в първия чип Trainium, позиционирайки Amazon да потенциално затвори пропастта с Nvidia. (Струва си да се отбележи, че самият AWS остава силно зависим от Nvidia за GPU.) Изместването на Nvidia е огромно предизвикателство поради заключването на клиентите със софтуерния слой CUDA на Nvidia, който предоставя на изследователите детайлен контрол върху това как техните модели използват ресурсите на чипа. Amazon предлага свой собствен софтуерен слой за управление на ядрото, Neuron Kernel Interface (NKI), който, подобно на CUDA, предоставя на изследователите фин контрол върху взаимодействията на ядрото на чипа.

Важно е да се отбележи, че Trainium2 все още не е тестван в мащаб. AWS в момента изгражда сървърен клъстер с 400 000 чипа Trainium2 за Anthropic, което може да предостави ценна информация за оптимизиране на производителността на неговите AI чипове в мащабни внедрявания.

2. Arm

Британският дизайнер на полупроводници Arm отдавна е ключов доставчик на архитектурата, използвана в чипове, захранващи малки устройства като телефони, сензори и IoT хардуер. Тази роля придобива повишено значение в нововъзникващата ера, в която чиповете на крайните устройства ще изпълняват AI модели. Центровете за данни също ще играят решаваща роля в тази еволюция, като често обработват някои или всички от най-взискателните AI обработки и доставят резултати до крайните устройства.

Тъй като центровете за данни се разпространяват в световен мащаб, тяхната консумация на електроенергия ще се превърне във все по-належащ проблем. Този фактор допринася за акцента върху ефективността в най-новата архитектура на процесора Neoverse на Arm. Той може да се похвали с 50% подобрение на производителността в сравнение с предишните поколения и 20% по-добра производителност на ват в сравнение с процесори, използващи конкурентни x86 архитектури, според компанията.

Arm съобщава, че Amazon, Microsoft, Google и Oracle са приели Arm Neoverse както за общо предназначение, така и за базирани на CPU AI изводи и обучение. Например, през 2024 г. Microsoft обяви, че първият му персонализиран силиций, предназначен за облака, процесорът Cobalt 100, е изграден върху Arm Neoverse. Някои от най-големите AI центрове за данни ще разчитат на Grace Hopper Superchip на NVIDIA, който комбинира Hopper GPU и Grace CPU, базиран на Neoverse. Arm е планирано да пусне свой собствен CPU тази година, като Meta е един от първите му клиенти.

2. Gretel

През изминалата година AI компаниите изпитаха намаляваща възвръщаемост от обучението на своите модели с все по-големи обеми данни, извлечени от мрежата. Следователно те преместиха фокуса си от чистото количество данни за обучение към неговото качество. Това доведе до увеличени инвестиции в непублично и специализирано съдържание, лицензирано от партньори издатели. Изследователите на AI също трябва да се справят с пропуските или слепите петна в своите генерирани от хора или анотирани от хора данни за обучение. За тази цел те все повече се обръщат към синтетични данни за обучение, генерирани от специализирани AI модели.

Gretel придоби известност през 2024 г., като се специализира в създаването и курирането на синтетични данни за обучение. Компанията обяви общата наличност на своя водещ продукт, Gretel Navigator, който позволява на разработчиците да използват естествен език или SQL подкани за генериране, увеличаване, редактиране и куриране на синтетични набори от данни за обучение за фина настройка и тестване. Платформата вече е привлякла общност от над 150 000 разработчици, които са синтезирали повече от 350 милиарда части от данни за обучение.

Други играчи в индустрията са забелязали възможностите на Gretel. Gretel си партнира с Google, за да направи своите синтетични данни за обучение лесно достъпни за клиентите на Google Cloud. Подобно партньорство с Databricks беше обявено през юни, предоставяйки на корпоративните клиенти на Databricks достъп до синтетични данни за обучение за техните модели, работещи в облака на Databricks.

2. Mistral AI

Mistral AI, френският претендент в арената на генеративния AI, последователно оказва натиск върху OpenAI, Anthropic и Google в челните редици на развитието на граничните AI модели. Mistral AI пусна серия от нови модели, включващи значителни технологични постижения през 2024 г., демонстрирайки бърз бизнес растеж както чрез директен маркетинг на своите API, така и чрез стратегически партньорства.

По-рано през годината компанията представи двойка модели с отворен код, наречени Mixtral, забележителни с иновативното си използване на архитектурата ‘смес от експерти’, където само специализирано подмножество от параметрите на модела се ангажират за обработка на заявка, повишавайки ефективността. През юли 2024 г. Mistral обяви Mistral Large 2, който, със 123 милиарда параметъра, показа значителни подобрения в генерирането на код, математиката, разсъжденията и извикването на функции. Френската компания също така пусна Ministral 3B и Ministral 8B, по-малки модели, предназначени за изпълнение на лаптопи или телефони, способни да съхраняват приблизително 50 текстови страници контекстуална информация, предоставена от потребителя.

Mistral постигна успех в Европа, като се позиционира като евтина и гъвкава алтернативана американските AI компании като OpenAI. Освен това продължи разширяването си на американския корпоративен пазар през 2024 г. През юни компанията осигури кръг от финансиране от 640 милиона долара, воден от фирмата за рисков капитал General Catalyst, повишавайки оценката на Mistral до приблизително 6,2 милиарда долара.

2. Fireworks AI

Fireworks предлага персонализирана среда за изпълнение, която рационализира често сложната инженерна работа, свързана с изграждането на инфраструктура за AI внедрявания. Използвайки платформата Fireworks, предприятията могат да интегрират всеки от над 100 AI модела и след това да ги персонализират и фино настроят за своите специфични случаи на употреба.

Компанията представи нови продукти през 2024 г., които ще я позиционират да се възползва от ключовите тенденции в AI индустрията. Първо, разработчиците стават все по-фокусирани върху отзивчивостта на моделите и приложенията, задвижвани от AI. Fireworks дебютира FireAttention V2, софтуер за оптимизация и квантуване, който ускорява производителността на модела и намалява латентността на мрежата. Второ, AI системите все повече се развиват в ‘тръбопроводи’, които извикват различни модели и инструменти чрез API. Новият софтуер FireFunction V2 действа като оркестратор за всички компоненти в тези все по-сложни системи, особено след като предприятията внедряват повече автономни AI приложения.

Fireworks отчита 600% увеличение на растежа на приходите през 2024 г. Клиентската му база включва известни компании като Verizon, DoorDash, Uber, Quora и Upwork.

2. Snorkel AI

Предприятията осъзнаха, че ефективността на техните AI системи е пряко свързана с качеството на техните данни. Snorkel AI изгради процъфтяващ бизнес, като помага на предприятията да подготвят своите собствени данни за използване в AI модели. Платформата за разработка на AI данни Snorkel Flow на компанията предоставя рентабилен метод за компаниите да етикетират и курират своите собствени данни, позволявайки използването им при персонализиране и оценка на AI модели за техните специфични бизнес нужди.

През 2024 г. Snorkel разшири поддръжката си, за да включва изображения, позволявайки на компаниите да обучават мултимодални AI модели и генератори на изображения, използвайки свои собствени изображения. Той също така включи генериране с разширено извличане (RAG) в своята платформа, позволявайки на клиентите да извличат само най-подходящите сегменти от информация от дълги документи, като например собствено съдържание на база знания, за използване в AI обучение. Snorkel Custom, ново, по-високо ниво на обслужване, включва експерти по машинно обучение на Snorkel, които си сътрудничат директно с клиентите по проекти.

Snorkel заявява, че годишните му резервации са се удвоили през 2024 г., с трицифрен ръст на годишните резервации за всяка от последните три години. Шест от най-големите банки вече използват Snorkel Flow, според компанията, заедно с марки като Chubb, Wayfair и Experian.

2. CalypsoAI

Тъй като AI играе все по-важна роля в критичните процеси на вземане на решения, предприятията търсят по-голяма видимост върху вътрешната работа на моделите. Тази нужда е особено изразена в регулираните индустрии, които трябва непрекъснато да следят за пристрастия и други нежелани резултати. CalypsoAI беше сред първите, които разпознаха това нововъзникващо изискване и бързо реагираха с подобрени функции за обяснимост в своята AI инфраструктурна платформа.

Това, което отличава Calypso, е широчината на неговата технология за наблюдение. През 2024 г. компанията стартира своята AI Security Platform, която защитава корпоративните данни чрез защита, одит и наблюдение на всички активни генеративни AI модели, които дадена компания може да използва, независимо от доставчика на модела или дали моделът се хоства вътрешно или външно. Calypso също така представи нови инструменти за визуализация, които позволяват на потребителите да наблюдават логиката, залегнала в основата на AI решенията, в реално време.

Пазарът реагира положително на акцента на Calypso върху AI наблюдаемостта. Компанията отчита десетократно увеличение на приходите през 2024 г. и очаква още петкратно увеличение през 2025 г.

2. Galileo

Въпреки че AI системите показват по-малко случаи на фактически халюцинации и пристрастия в сравнение с преди година, те остават податливи на тези проблеми. Това представлява значителна загриженост за всеки бизнес, използващ AI, особено тези в регулирани сектори като здравеопазване и банкиране. Екипите за разработка на AI използват AI платформата на Galileo, за да измерват, оптимизират и наблюдават точността на своите модели и приложения.

В началото на 2024 г., след две години изследвания, Galileo пусна Luna, пакет от модели за оценка, обучени да идентифицират вредни резултати. Тези модели позволяват на платформата на Galileo бързо да проверява и оценява работата на LLM, докато сглобява токените, които съставляват неговия отговор. Този процес отнема приблизително 200 милисекунди, което позволява достатъчно време за маркиране и предотвратяване на показването на изхода на AI на потребителя. Въпреки че стандартен LLM би могъл да изпълни тази задача, това би било значително по-скъпо. Специално изградените модели на Galileo предлагат превъзходна точност, рентабилност и, което е от решаващо значение, скорост.

Galileo отчита учетворяване на клиентската си база през 2024 г., с клиенти, включително Twilio, Reddit, Chegg, Comcast и JPMorgan Chase. Стартъпът също така осигури кръг от финансиране от 68 милиона долара от инвеститори като главния изпълнителен директор на Hugging Face Клеман Деланг.

2. Runway

Едно от най-значимите стремежи—и безпокойства—около AI е неговият потенциал да генерира видео с достатъчно качество, за да революционизира изкуството и икономиката на филмопроизводството. Технологията направи значителни крачки към това бъдеще през 2024 г., като Runway, базиран в Ню Йорк стартъп за генериране на видео, играе водеща роля. Пускането на модела Gen-3 Alpha на Runway през юни 2024 г. събра широко признание в AI общността за значително подобрената правдоподобност на генерираното видео.

Runway също така внедри основни подобрения в своите инструменти за контролиране на естетиката на AI видеото. Моделът е обучен както на изображения, така и на видео и може да генерира видео въз основа на текстови или графични входове. Впоследствие компанията пусна Gen-3 Alpha Turbo, по-рентабилна и по-бърза версия на Gen-3.

Холивуд следи отблизо напредъка на генеративния AI и Runway съобщава, че е започнала да произвежда персонализирани версии на своите модели за играчи от развлекателната индустрия. Той сключи официално партньорство с Lionsgate Studios през септември 2024 г. Runway разработи персонализиран модел за продуцентската компания и го обучи върху филмовия каталог на Lionsgate. Runway заявява, че моделът е предназначен да помогне на режисьорите, режисьорите и други творци на Lionsgate да ‘увеличат’ работата си, като същевременно ‘спестяват време, пари и ресурси’. Runway вярва, че споразумението му с Lionsgate може да послужи като план за подобни сътрудничества с други продуцентски компании.

2. Cerebras Systems

AI системите, особено големите гранични модели, изискват огромна изчислителна мощност, за да работят в мащаб. Това налага взаимното свързване на хиляди или милиони чипове за разпределяне на работното натоварване. Въпреки това, мрежовите връзки между чиповете могат да въведат тесни места в производителността. Технологията на Cerebras Systems е проектирана да използва предимствата на скоростта и ефективността от интегрирането на огромно количество изчислителна мощност върху един, изключително голям чип.

Най-новият чип WSE-3 (Wafer Scale Engine от трето поколение) на компанията, например, е с размери 814 квадратни милиметра, с размерите на чиния за вечеря, и е 56 пъти по-голям от водещите на пазара чипове H100 на Nvidia. Чипът включва зашеметяващите 4 трилиона транзистора и предлага 44 гигабита памет. Тези чипове могат да бъдат групирани, за да образуват суперкомпютри, като Condor Galaxy, ‘съзвездие’ от взаимосвързани суперкомпютри, които Cerebras разработва в сътрудничество с най-големия си клиент, G42, базирана в ОАЕ компания за AI и облачни изчисления.

До момента Cerebras е намерила ниша в големи изследователски организации, включително Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory и Los Alamos National Laboratory. Компанията подаде заявление за IPO през септември 2024 г. Проспектът показва, че продажбите на компанията са се увеличили повече от три пъти до 78,7 милиона долара през 2023 г. и са скочили до 136,4 милиона долара през първата половина на 2024 г.