Разходи за AI: Търсенето надхвърля ефикасността

Първоначалният трус: DeepSeek и миражът на ефикасността

Появата на китайския DeepSeek AI по-рано тази година предизвика сътресения в пейзажа на технологичните инвестиции. Неговият привидно революционен подход, обещаващ мощен изкуствен интелект със значително по-ниски изчислителни разходи, незабавно предизвика спекулации. Бързо се формира наратив: може би безмилостното, скъпо разширяване на AI инфраструктурата, характеризиращо се с масивни покупки на специализирани чипове и системи, е на път да се забави. Пазарът реагира, отразявайки убеждението, че нова ера на рентабилен AI може драстично да ограничи очаквания бум на разходите.

Въпреки това, прозрения от скорошна среща на високо ниво на умове от индустрията рисуват коренно различна картина. Конференция за генеративен AI, свикана в Ню Йорк от Bloomberg Intelligence, предположи, че първоначалната интерпретация, фокусирана единствено върху потенциалните икономии на разходи, е пропуснала по-голямата история. Далеч от сигнализиране за забавяне на разходите, събитието подчерта почти ненаситен глад за по-голям AI капацитет. Консенсусът не беше за съкращаване; беше за измисляне как да се нахрани експоненциално нарастващият апетит за интелигентни системи, дори докато отчаяно се желаеше менюто да е по-евтино.

Гласове от окопите: Неутолима жажда за капацитет

Дискусиите през целия ден на събитието, което събра разработчици, стратези и инвеститори, последователно се въртяха около темата за ескалиращото търсене, движещо монументални инвестиции. Mandeep Singh, старши технологичен анализатор в Bloomberg Intelligence и един от организаторите на събитието, улови преобладаващото настроение кратко и ясно. Размишлявайки върху многобройните панели и експертни дискусии, той отбеляза универсален рефрен: никой от участниците не смяташе, че притежава достатъчен AI капацитет. Преобладаващото усещане беше за нужда от повече, а не за наличие на твърде много.

Ключово, добави Singh, призракът на ‘инфраструктурен балон’, често срещан страх в бързо разрастващите се технологични сектори, забележимо отсъстваше от разговора. Фокусът остана твърдо върху фундаменталното предизвикателство, пред което е изправена цялата индустрия. Anurag Rana, колега на Singh и старши анализатор на Bloomberg Intelligence за IT услуги и софтуер, го формулира като първостепенния въпрос: ‘Къде се намираме в този цикъл [на изграждане на AI инфраструктура]?’

Макар да призна, че точното определяне на етапа на това масивно изграждане остава трудно (‘Никой не знае’ със сигурност, призна Rana), феноменът DeepSeek безспорно промени перспективите. Той инжектира мощна доза надежда, че значителни AI натоварвания потенциално биха могли да бъдат обработени по-икономично. ‘DeepSeek разтърси много хора’, отбеляза Rana. Подтекстът беше ясен: ако сложните AI модели наистина могат да работят ефективно на по-малко взискателен хардуер, може би гигантски проекти, като инициативите за стотици милиарди долари, за които се говори, че се планират от консорциуми, включващи големи технологични играчи, биха могли да бъдат преоценени или мащабирани по различен начин.

Мечтата, отекваща в цялата индустрия според Rana, е оперативните разходи за AI, особено за inference (етапът, в който обучените модели генерират прогнози или съдържание), да последват драматичната низходяща траектория, наблюдавана при съхранението в облачни изчисления през последното десетилетие. Той припомни как икономиката на съхранение на огромни количества данни на платформи като Amazon Web Services (AWS) се подобри драстично за около осем години. ‘Този спад в кривата на разходите… икономиката беше добра’, заяви той. ‘И това е, на което всички се надяват, че от страна на inference… ако кривата падне до това ниво, о, боже мой, степента на възприемане на AI… ще бъде грандиозна.’ Singh се съгласи, отбелязвайки, че появата на DeepSeek фундаментално ‘промени мисленето на всички за постигане на ефикасност’.

Този копнеж за ефикасност беше осезаем по време на сесиите на конференцията. Докато многобройни панели се задълбочиха в практиките за преместване на корпоративни AI проекти от концептуални етапи в реална продукция, паралелна дискусия постоянно подчертаваше критичната необходимост от намаляване на разходите, свързани с внедряването и експлоатацията на тези AI модели. Целта е ясна: демократизиране на достъпа чрез превръщане на AI в икономически жизнеспособен за по-широк кръг от приложения и потребители. Shawn Edwards, главният технолог на Bloomberg, предположи, че DeepSeek не е непременно пълна изненада, а по-скоро мощна илюстрация на универсално желание. ‘Това, което ме накара да си помисля, е, че би било страхотно, ако можеш да махнеш с вълшебна пръчка и тези модели да работят невероятно ефективно’, отбеляза той, разширявайки желанието към целия спектър от AI модели, а не само към един конкретен пробив.

Принципът на пролиферация: Подхранване на търсенето на изчислителна мощ

Една от основните причини експертите да очакват продължителни, значителни инвестиции в AI инфраструктура, въпреки стремежа към ефикасност, се крие в самата пролиферация на AI модели. Повтаряща се тема по време на конференцията в Ню Йорк беше решителното отдалечаване от идеята за един-единствен, монолитен AI модел, способен да се справи с всички задачи.

  • Семейна работа: Както каза Edwards от Bloomberg, ‘Ние използваме семейство от модели. Няма такова нещо като най-добър модел.’ Това отразява нарастващото разбиране, че различните AI архитектури се справят отлично с различни задачи – генериране на език, анализ на данни, разпознаване на изображения, довършване на код и т.н.
  • Корпоративна персонализация: Участниците в панелите бяха широко съгласни, че докато големите, общоприложими ‘фундаментални’ или ‘гранични’ модели ще продължат да бъдат разработвани и усъвършенствани от големите AI лаборатории, истинското действие в бизнеса включва внедряването на потенциално стотици или дори хиляди специализирани AI модели.
  • Fine-Tuning и собствени данни: Много от тези корпоративни модели ще бъдат адаптирани от базови модели чрез процес, наречен fine-tuning. Това включва преобучение на предварително обучена невронна мрежа върху специфични, често собствени данни на компанията. Това позволява на AI да разбира уникални бизнес контексти, терминология и взаимодействия с клиенти, предоставяйки далеч по-уместни и ценни резултати, отколкото би могъл генеричен модел.
  • Демократизиране на разработката: Jed Dougherty, представляващ платформата за наука за данните Dataiku, подчерта необходимостта от ‘опционалност сред моделите’ за корпоративните AI агенти. Той наблегна на важността да се даде на компаниите контрол, възможности за създаване и auditability (проверимост) върху техните AI инструменти. ‘Искаме да дадем инструментите за изграждане на тези неща в ръцете на хората’, заяви Dougherty. ‘Не искаме десет доктори на науките да изграждат всички агенти.’ Този стремеж към по-широка достъпност в самата разработка предполага нужда от повече подлежаща инфраструктура за подкрепа на тези разпределени усилия за създаване.
  • AI, специфичен за марката: Творческите индустрии предлагат отличен пример. Hannah Elsakr, ръководеща новите бизнес начинания в Adobe, обясни тяхната стратегия, залагаща на персонализирани модели като ключов диференциатор. ‘Можем да обучим персонализирани разширения на модели за вашата марка, които могат да помогнат за нова рекламна кампания’, илюстрира тя, показвайки как AI може да бъде пригоден да поддържа специфична естетика и послания на марката.

Освен диверсификацията на моделите, нарастващото внедряване на AI агенти в корпоративните работни процеси е друг значителен двигател на търсенето на обработка. Тези агенти се предвиждат не само като пасивни инструменти, но и като активни участници, способни да изпълняват многоетапни задачи.

Ray Smith, ръководещ усилията на Microsoft за агенти и автоматизация в Copilot Studio, прогнозира бъдеще, в което потребителите взаимодействат с потенциално стотици специализирани агенти чрез унифициран интерфейс като Copilot. ‘Няма да натъпчете цял процес в един агент, ще го разделите на части’, обясни той. Тези агенти, предположи той, са по същество ‘приложения в новия свят’ на програмирането. Визията е такава, при която потребителите просто заявяват целта си – ‘казват му какво искаме да постигнем’ – и агентът организира необходимите стъпки. ‘Агентните приложения са просто нов начин на работен процес’, заяви Smith, подчертавайки, че реализирането на тази визия е по-малко въпрос на технологична възможност (‘всичко е технологично възможно’) и повече на ‘темпото, с което го изграждаме’.

Този тласък към по-дълбоко вграждане на AI агенти в ежедневните организационни процеси допълнително засилва натиска за намаляване на разходите и ефективно внедряване. James McNiven, ръководител на продуктовия мениджмънт в гиганта за микропроцесори ARM Holdings, формулира предизвикателството от гледна точка на достъпността. ‘Как да осигурим достъп на все повече и повече устройства?’, запита се той. Наблюдавайки модели, постигащи почти ‘докторско ниво’ на способности в специфични задачи, той направи паралел с трансформиращото въздействие на въвеждането на мобилни платежни системи в развиващите се страни преди години. Основният въпрос остава: ‘Как да предоставим тази [AI способност] на хората, които могат да използват тази способност?’ Предоставянето на сложни AI агенти като леснодостъпни асистенти на широк кръг от работната сила изисква не само умен софтуер, но и ефективен хардуер и, неизбежно, повече инвестиции в подлежаща инфраструктура, дори когато ефективността на изчисление се подобрява.

Препятствия пред мащабирането: Силиций, енергия и облачните гиганти

Дори най-широко използваните, генерични фундаментални модели се размножават със зашеметяваща скорост, поставяйки огромно напрежение върху съществуващата инфраструктура. Dave Brown, който отговаря за изчисленията и мрежите в Amazon Web Services (AWS), разкри, че само тяхната платформа предлага на клиентите достъп до около 1800 различни AI модела. Той подчерта интензивния фокус на AWS върху ‘правенето на много за намаляване на разходите’ за експлоатация на тези мощни инструменти.

Ключова стратегия за облачни доставчици като AWS включва разработването на собствен custom silicon (персонализиран силиций). Brown подчерта нарастващото използване на чипове, проектирани от AWS, като техните процесори Trainium, оптимизирани за обучение на AI, заявявайки: ‘AWS използва повече наши собствени процесори, отколкото процесори на други компании.’ Този ход към специализиран, вътрешен хардуер има за цел да поеме контрола върху производителността и разходите, намалявайки зависимостта от доставчици на чипове с общо предназначение като Nvidia, AMD и Intel. Въпреки тези усилия, Brown откровено призна фундаменталната реалност: ‘Клиентите биха направили повече, ако разходите бяха по-ниски.’ Таванът на търсенето в момента се определя повече от бюджетни ограничения, отколкото от липса на потенциални приложения.

Мащабът на ресурсите, изисквани от водещите разработчици на AI, е огромен. Brown отбеляза ежедневното сътрудничество на AWS с Anthropic, създателите на сложната фамилия езикови модели Claude. Michael Gerstenhaber, ръководител на интерфейсите за програмиране на приложения в Anthropic, говорейки заедно с Brown, посочи изчислителната интензивност на съвременния AI, особено моделите, предназначени за сложни разсъждения или ‘мислене’. Тези модели често генерират подробни обяснения стъпка по стъпка за своите отговори, консумирайки значителна процесорна мощ. ‘Мислещите модели причиняват използването на много капацитет’, заяви Gerstenhaber.

Докато Anthropic активно работи с AWS по техники за оптимизация като ‘prompt caching’ (съхраняване и повторно използване на изчисления от предишни взаимодействия за спестяване на ресурси), фундаменталното изискване за хардуер остава огромно. Gerstenhaber без заобикалки заяви, че Anthropic се нуждае от ‘стотици хиляди ускорители’ – специализирани AI чипове – разпределени ‘в много центрове за данни’, просто за да управлява текущия си набор от модели. Това дава конкретна представа за чистия мащаб на изчислителните ресурси, стоящи зад само един голям играч в областта на AI.

Усложняващо предизвикателството за набавяне и управление на огромни флотилии от силиций е спираловидно нарастващата консумация на енергия, свързана с AI. Brown подчерта това като критична и бързо ескалираща загриженост. Настоящите центрове за данни, поддържащи интензивни AI натоварвания, вече консумират енергия, измервана в стотици мегавати. Прогнозите сочат, че бъдещите изисквания неизбежно ще се изкачат до гигаватовия диапазон – мощността на големи електроцентрали. ‘Енергията, която консумира’, предупреди Brown, имайки предвид AI, ‘е голяма, а отпечатъкът е голям в много центрове за данни.’ Това ескалиращо търсене на енергия представлява не само огромни оперативни разходи, но и значителни екологични и логистични предизвикателства за разполагането и захранването на следващото поколение AI инфраструктура.

Икономическият жокер: Сянка над плановете за растеж

Въпреки оптимистичните перспективи, движени от технологичния напредък и процъфтяващите случаи на употреба, значителна променлива се извисява над всички прогнози за инвестиции в AI: по-широкият икономически климат. Когато конференцията на Bloomberg Intelligence приключи, участниците вече наблюдаваха пазарни трепети, произтичащи от новообявени глобални тарифни пакети, възприемани като по-обширни от очакваното.

Това служи като мощно напомняне, че амбициозните технологични пътни карти могат бързо да бъдат нарушени от макроикономически насрещни ветрове. Rana от Bloomberg предупреди, че докато разходите за AI може да са донякъде изолирани първоначално, традиционните области на корпоративните IT инвестиции, като сървъри и съхранение, несвързани с AI, могат да бъдат първите жертви при икономическо свиване. ‘Другото голямо нещо, върху което сме фокусирани, са технологичните разходи, несвързани с AI’, отбеляза той, изразявайки загриженост относно потенциалното въздействие върху големите доставчици на технологични услуги преди сезона на отчетите, дори преди да се разгледат конкретно бюджетите за AI.

Съществува обаче преобладаваща теория, че AI може да се окаже уникално устойчив. Rana предположи, че главните финансови директори (CFOs) в големите корпорации, изправени пред бюджетни ограничения поради икономическа несигурност или дори рецесия, могат да изберат да приоритизират AI инициативите. Те потенциално биха могли да пренасочат средства от по-малко критични области, за да защитят стратегическите инвестиции в AI, възприемани като решаващи за бъдещата конкурентоспособност.

И все пак, тази оптимистична гледна точка далеч не е гарантирана. Крайният тест, според Rana, ще бъде дали големите корпорации ще поддържат агресивните си цели за капиталови разходи, особено за изграждане на AI центрове за данни, в лицето на нарастващата икономическа несигурност. Критичният въпрос остава: ‘Ще кажат ли: ‘Знаете ли какво? Твърде несигурно е.’’ Отговорът ще определи дали привидно неудържимият импулс зад разходите за AI инфраструктура ще продължи безмилостното си изкачване или ще се сблъска с неочаквана пауза, продиктувана от глобалните икономически реалности.