Nowe spojrzenie na wydatki na AI: Popyt przewyższa efektywność

Początkowe Wstrząsy: DeepSeek i Miraż Efektywności

Pojawienie się chińskiego DeepSeek AI na początku tego roku wywołało wstrząs w krajobrazie inwestycji technologicznych. Jego pozornie przełomowe podejście, obiecujące potężną sztuczną inteligencję przy znacznie niższych kosztach obliczeniowych, natychmiast wywołało spekulacje. Szybko ukształtowała się narracja: być może nieustanna, kosztowna ekspansja infrastruktury AI, charakteryzująca się masowymi zakupami specjalistycznych chipów i systemów, miała spowolnić. Rynek zareagował, odzwierciedlając przekonanie, że nowa era opłacalnej AI może drastycznie ograniczyć przewidywany boom wydatków.

Jednak wnioski z niedawnego spotkania na wysokim szczeblu umysłów branżowych malują zupełnie inny obraz. Konferencja poświęcona generatywnej AI, zwołana w Nowym Jorku przez Bloomberg Intelligence, sugerowała, że początkowa interpretacja, skupiona wyłącznie na potencjalnych oszczędnościach kosztów, przeoczyła szerszy kontekst. Daleko od sygnalizowania spowolnienia wydatków, wydarzenie podkreśliło niemal nienasycony głód większej mocy obliczeniowej AI. Konsensus nie dotyczył cięć; chodziło o znalezienie sposobu na zaspokojenie wykładniczo rosnącego apetytu na inteligentne systemy, nawet przy desperackiej nadziei, że menu będzie mniej kosztowne.

Głosy z Okopów: Niezaspokojone Pragnienie Mocy Obliczeniowej

Dyskusje podczas całodniowego wydarzenia, które zgromadziło deweloperów, strategów i inwestorów, konsekwentnie krążyły wokół tematu rosnącego popytu napędzającego monumentalne inwestycje. Mandeep Singh, starszy analityk technologiczny w Bloomberg Intelligence i jeden z organizatorów wydarzenia, trafnie ujął dominujące nastroje. Odnosząc się do licznych paneli i dyskusji ekspertów, zauważył uniwersalny refren: nikt z zaangażowanych nie czuł, że posiada wystarczającą moc obliczeniową AI. Przeważało poczucie potrzeby posiadania więcej, a nie posiadania zbyt wiele.

Co kluczowe, dodał Singh, widmo ‘bańki infrastrukturalnej’, powszechnej obawy w szybko rozwijających się sektorach technologicznych, było zauważalnie nieobecne w rozmowie. Skupiono się wyłącznie na fundamentalnym wyzwaniu stojącym przed całą branżą. Anurag Rana, kolega Singha i starszy analityk Bloomberg Intelligence ds. usług IT i oprogramowania, ujął to jako najważniejsze pytanie: ‘Gdzie jesteśmy w tym cyklu [budowy infrastruktury AI]?’

Przyznając, że precyzyjne określenie dokładnego etapu tej masowej rozbudowy pozostaje nieuchwytne (‘Nikt nie wie’ na pewno, przyznał Rana), zjawisko DeepSeek niezaprzeczalnie zmieniło perspektywy. Wprowadziło potężną dawkę nadziei, że znaczące obciążenia AI mogą potencjalnie być obsługiwane bardziej ekonomicznie. ‘DeepSeek wstrząsnął wieloma ludźmi’, zauważył Rana. Implikacja była jasna: jeśli zaawansowane modele AI mogłyby rzeczywiście działać wydajnie na mniej wymagającym sprzęcie, być może gigantyczne projekty, takie jak inicjatywy warte setki miliardów dolarów, o których plotkowano, że są planowane przez konsorcja z udziałem głównych graczy technologicznych, mogłyby zostać ponownie ocenione lub inaczej skalowane.

Marzeniem, powtarzanym w całej branży według Rany, jest, aby koszty operacyjne AI, szczególnie w przypadku inferencji (etapu, na którym wytrenowane modele generują prognozy lub treści), podążały dramatyczną trajektorią spadkową obserwowaną w przechowywaniu danych w chmurze obliczeniowej w ciągu ostatniej dekady. Przypomniał, jak ekonomika przechowywania ogromnych ilości danych na platformach takich jak Amazon Web Services (AWS) drastycznie poprawiła się w ciągu około ośmiu lat. ‘Ten spadek krzywej kosztów… ekonomia była dobra’, stwierdził. ‘I na to wszyscy liczą, że po stronie inferencji… jeśli krzywa spadnie do tego poziomu, o mój Boże, wskaźnik adopcji AI… będzie spektakularny’. Singh zgodził się, zauważając, że pojawienie się DeepSeek fundamentalnie ‘zmieniło sposób myślenia wszystkich o osiąganiu efektywności’.

To pragnienie efektywności było wyczuwalne podczas sesji konferencyjnych. Podczas gdy liczne panele zagłębiały się w praktyczne aspekty przenoszenia projektów AI w przedsiębiorstwach z etapów koncepcyjnych do produkcji na żywo, równoległa dyskusja stale podkreślała krytyczną potrzebę cięcia kosztów związanych z wdrażaniem i uruchamianiem tych modeli AI. Cel jest jasny: demokratyzacja dostępu poprzez uczynienie AI ekonomicznie opłacalną dla szerszego zakresu zastosowań i użytkowników. Shawn Edwards, główny technolog Bloomberga, zasugerował, że DeepSeek niekoniecznie był całkowitym zaskoczeniem, ale raczej potężną ilustracją uniwersalnego pragnienia. ‘To, co sprawiło, że pomyślałem, to że byłoby wspaniale, gdyby można było machnąć różdżką i sprawić, by te modele działały niesamowicie wydajnie’, zauważył, rozszerzając to życzenie na całe spektrum modeli AI, a nie tylko na jeden konkretny przełom.

Zasada Proliferacji: Napędzanie Popytu na Moc Obliczeniową

Jednym z głównych powodów, dla których eksperci przewidują kontynuację znaczących inwestycji w infrastrukturę AI, pomimo dążenia do efektywności, jest sama proliferacja modeli AI. Powracającym tematem podczas konferencji w Nowym Jorku było zdecydowane odejście od koncepcji jednego, monolitycznego modelu AI zdolnego do obsługi wszystkich zadań.

  • Rodzina Modeli: Jak ujął to Edwards z Bloomberga: ‘Używamy rodziny modeli. Nie ma czegoś takiego jak najlepszy model’. Odzwierciedla to rosnące zrozumienie, że różne architektury AI doskonale sprawdzają się w różnych zadaniach – generowaniu języka, analizie danych, rozpoznawaniu obrazów, uzupełnianiu kodu i tak dalej.
  • Dostosowanie w Przedsiębiorstwie: Paneliści powszechnie zgadzali się, że chociaż duże, ogólnego przeznaczenia modele ‘fundacyjne’ lub ‘graniczne’ będą nadal rozwijane i udoskonalane przez główne laboratoria AI, prawdziwa akcja w biznesie polega na wdrażaniu potencjalnie setek, a nawet tysięcy specjalistycznych modeli AI.
  • Dostrajanie (Fine-tuning) i Dane Zastrzeżone: Wiele z tych modeli korporacyjnych zostanie zaadaptowanych z modeli bazowych poprzez proces zwany fine-tuning. Polega to na ponownym trenowaniu wstępnie wytrenowanej sieci neuronowej na specyficznych, często zastrzeżonych danych firmy. Pozwala to AI zrozumieć unikalne konteksty biznesowe, terminologię i interakcje z klientami, dostarczając znacznie bardziej trafnych i wartościowych wyników niż mógłby to zrobić model generyczny.
  • Demokratyzacja Rozwoju: Jed Dougherty, reprezentujący platformę data science Dataiku, podkreślił potrzebę ‘opcjonalności wśród modeli’ dla agentów AI w przedsiębiorstwach. Podkreślił znaczenie zapewnienia firmom kontroli, możliwości tworzenia i audytowalności ich narzędzi AI. ‘Chcemy dać narzędzia do budowania tych rzeczy w ręce ludzi’, zapewnił Dougherty. ‘Nie chcemy, aby dziesięciu doktorów budowało wszystkich agentów’. Ten dążenie do szerszej dostępności w samym rozwoju implikuje potrzebę większej infrastruktury bazowej do wspierania tych rozproszonych wysiłków twórczych.
  • AI Specyficzna dla Marki: Branże kreatywne oferują doskonały przykład. Hannah Elsakr, kierująca nowymi przedsięwzięciami biznesowymi w Adobe, wyjaśniła ich strategię opartą na niestandardowych modelach jako kluczowym wyróżniku. ‘Możemy wytrenować niestandardowe rozszerzenia modeli dla Twojej marki, które mogą pomóc w nowej kampanii reklamowej’, zilustrowała, pokazując, jak AI można dostosować do utrzymania specyficznej estetyki i przekazu marki.

Oprócz dywersyfikacji modeli, rosnące wdrażanie agentów AI w przepływach pracy korporacyjnej jest kolejnym znaczącym czynnikiem napędzającym zapotrzebowanie na przetwarzanie. Agenci ci są postrzegani nie tylko jako pasywne narzędzia, ale jako aktywni uczestnicy zdolni do wykonywania wieloetapowych zadań.

Ray Smith, kierujący działaniami agentów i automatyzacji w Microsoft Copilot Studio, przewidział przyszłość, w której użytkownicy będą wchodzić w interakcje z potencjalnie setkami wyspecjalizowanych agentów za pośrednictwem ujednoliconego interfejsu, takiego jak Copilot. ‘Nie upchniesz całego procesu w jednym agencie, podzielisz go na części’, wyjaśnił. Ci agenci, zasugerował, są zasadniczo ‘aplikacjami w nowym świecie’ programowania. Wizja polega na tym, że użytkownicy po prostu określają swój cel – ‘powiedz mu, co chcemy osiągnąć’ – a agent koordynuje niezbędne kroki. ‘Aplikacje agentowe to po prostu nowy sposób przepływu pracy’, stwierdził Smith, podkreślając, że realizacja tej wizji jest mniej kwestią możliwości technologicznych (‘wszystko jest technologicznie możliwe’), a bardziej ‘tempa, w jakim to zbudujemy’.

Ten nacisk na głębsze osadzenie agentów AI w codziennych procesach organizacyjnych dodatkowo intensyfikuje presję na redukcję kosztów i efektywne wdrażanie. James McNiven, szef zarządzania produktem w gigancie mikroprocesorowym ARM Holdings, ujął wyzwanie w kategoriach dostępności. ‘Jak zapewnić dostęp na coraz większej liczbie urządzeń?’ zastanawiał się. Obserwując modele osiągające możliwości bliskie ‘poziomowi doktoranckiemu’ w określonych zadaniach, narysował paralelę do transformacyjnego wpływu wprowadzenia mobilnych systemów płatności do krajów rozwijających się lata temu. Podstawowe pytanie pozostaje: ‘Jak dostarczyć tę [zdolność AI] ludziom, którzy mogą z niej skorzystać?’ Udostępnienie zaawansowanych agentów AI jako asystentów szerokiej rzeszy pracowników wymaga nie tylko sprytnego oprogramowania, ale także wydajnego sprzętu i, nieuchronnie, większych inwestycji w infrastrukturę bazową, nawet jeśli efektywność na jednostkę obliczeniową się poprawia.

Wyzwania Skalowania: Krzem, Energia i Giganci Chmurowi

Nawet najczęściej używane, generyczne modele fundacyjne mnożą się w zastraszającym tempie, wywierając ogromną presję na istniejącą infrastrukturę. Dave Brown, który nadzoruje obliczenia i sieci w Amazon Web Services (AWS), ujawnił, że sama ich platforma oferuje klientom dostęp do około 1800 różnych modeli AI. Podkreślił intensywne skupienie AWS na ‘robieniu wiele, aby obniżyć koszty’ uruchamiania tych potężnych narzędzi.

Kluczową strategią dla dostawców chmury, takich jak AWS, jest rozwój własnego niestandardowego krzemu. Brown podkreślił rosnące wykorzystanie chipów zaprojektowanych przez AWS, takich jak ich procesory Trainium zoptymalizowane pod kątem trenowania AI, stwierdzając: ‘AWS używa więcej własnych procesorów niż procesorów innych firm’. Ten ruch w kierunku specjalistycznego, wewnętrznego sprzętu ma na celu przejęcie kontroli nad wydajnością i kosztami, zmniejszając zależność od dostawców chipów ogólnego przeznaczenia, takich jak Nvidia, AMD i Intel. Pomimo tych wysiłków Brown szczerze przyznał fundamentalną rzeczywistość: ‘Klienci zrobiliby więcej, gdyby koszt był niższy’. Pułap popytu jest obecnie definiowany bardziej przez ograniczenia budżetowe niż przez brak potencjalnych zastosowań.

Skala zasobów wymaganych przez wiodących deweloperów AI jest ogromna. Brown zauważył codzienną współpracę AWS z Anthropic, twórcami zaawansowanej rodziny modeli językowych Claude. Michael Gerstenhaber, szef interfejsów programowania aplikacji w Anthropic, przemawiając obok Browna, zwrócił uwagę na intensywność obliczeniową nowoczesnej AI, szczególnie modeli zaprojektowanych do złożonego rozumowania lub ‘myślenia’. Modele te często generują szczegółowe wyjaśnienia krok po kroku dla swoich odpowiedzi, zużywając znaczną moc obliczeniową. ‘Myślące modele powodują zużycie dużej ilości mocy obliczeniowej’, stwierdził Gerstenhaber.

Chociaż Anthropic aktywnie współpracuje z AWS nad technikami optymalizacji, takimi jak ‘prompt caching’ (przechowywanie i ponowne wykorzystywanie obliczeń z poprzednich interakcji w celu oszczędzania zasobów), fundamentalne wymagania sprzętowe pozostają ogromne. Gerstenhaber bez ogródek stwierdził, że Anthropic potrzebuje ‘setek tysięcy akceleratorów’ – specjalistycznych chipów AI – rozmieszczonych ‘w wielu centrach danych’ po prostu do uruchomienia obecnego zestawu modeli. Daje to konkretne pojęcie o samej skali zasobów obliczeniowych leżących u podstaw tylko jednego dużego gracza AI.

Wyzwanie związane z pozyskiwaniem i zarządzaniem ogromnymi flotami krzemu potęguje rosnące zużycie energii związane z AI. Brown podkreślił to jako krytyczną i szybko eskalującą obawę. Obecne centra danych obsługujące intensywne obciążenia AI już zużywają moc mierzoną w setkach megawatów. Prognozy sugerują, że przyszłe wymagania nieuchronnie wzrosną do zakresu gigawatów – mocy dużych elektrowni. ‘Moc, którą zużywa’, ostrzegł Brown, odnosząc się do AI, ‘jest duża, a ślad węglowy jest duży w wielu centrach danych’. To rosnące zapotrzebowanie na energię stanowi nie tylko ogromne koszty operacyjne, ale także znaczące wyzwania środowiskowe i logistyczne związane z lokalizacją i zasilaniem następnej generacji infrastruktury AI.

Ekonomiczny Dżoker: Cień nad Planami Rozwoju

Pomimo optymistycznych perspektyw napędzanych postępem technologicznym i rosnącymi przypadkami użycia, znacząca zmienna unosi się nad wszystkimi prognozami dotyczącymi inwestycji w AI: szerszy klimat ekonomiczny. Gdy konferencja Bloomberg Intelligence dobiegała końca, uczestnicy już obserwowali nerwowość na rynku wynikającą z nowo ogłoszonych globalnych pakietów taryfowych, postrzeganych jako bardziej rozległe niż przewidywano.

Służy to jako mocne przypomnienie, że ambitne mapy drogowe technologiczne mogą zostać szybko zakłócone przez makroekonomiczne przeciwności. Rana z Bloomberga ostrzegł, że chociaż wydatki na AI mogą być początkowo nieco izolowane, tradycyjne obszary inwestycji IT w korporacjach, takie jak serwery i pamięć masowa niezwiązane z AI, mogą być pierwszymi ofiarami w przypadku kurczenia się gospodarki. ‘Inną dużą rzeczą, na której się skupiamy, są wydatki na technologię niezwiązaną z AI’, zauważył, wyrażając obawę o potencjalny wpływ na głównych dostawców usług technologicznych przed sezonem wyników, nawet przed rozważeniem budżetów na AI.

Istnieje jednak dominująca teoria, że AI może okazać się wyjątkowo odporna. Rana zasugerował, że dyrektorzy finansowi (CFO) w dużych korporacjach, stojący w obliczu ograniczeń budżetowych z powodu niepewności gospodarczej lub nawet recesji, mogą zdecydować się na priorytetyzację inicjatyw AI. Mogliby potencjalnie przesunąć fundusze z mniej krytycznych obszarów, aby chronić strategiczne inwestycje w AI postrzegane jako kluczowe dla przyszłej konkurencyjności.

Jednak ten optymistyczny pogląd jest daleki od gwarantowanego. Ostatecznym testem, według Rany, będzie to, czy duże korporacje utrzymają swoje agresywne cele wydatków kapitałowych, szczególnie na budowę centrów danych AI, w obliczu rosnącej niepewności gospodarczej. Kluczowe pytanie pozostaje: ‘Czy powiedzą: ‘Wiecie co? To zbyt niepewne’’. Odpowiedź zadecyduje, czy pozornie niepowstrzymany impet stojący za wydatkami na infrastrukturę AI będzie kontynuował swój nieustanny wzrost, czy też stanie w obliczu nieoczekiwanej pauzy podyktowanej globalnymi realiami gospodarczymi.