Il Tremore Iniziale: DeepSeek e il Miraggio dell’Efficienza
L’emergere dell’AI cinese DeepSeek all’inizio di quest’anno ha inviato onde d’urto nel panorama degli investimenti tecnologici. Il suo approccio apparentemente rivoluzionario, che prometteva un’intelligenza artificiale potente con un sovraccarico computazionale significativamente inferiore, ha scatenato immediatamente speculazioni. Si è rapidamente formata una narrazione: forse l’espansione incessante e costosa dell’infrastruttura AI, caratterizzata da massicci acquisti di chip e sistemi specializzati, stava per decelerare. Il mercato ha reagito, riflettendo la convinzione che una nuova era di AI economicamente vantaggiosa potesse ridurre drasticamente l’anticipato boom della spesa.
Tuttavia, le intuizioni emerse da un recente incontro di alto livello tra le menti del settore dipingono un quadro nettamente diverso. Una conferenza sull’AI generativa convocata a New York da Bloomberg Intelligence ha suggerito che l’interpretazione iniziale, focalizzata esclusivamente sui potenziali risparmi sui costi, avesse perso di vista il quadro generale. Lungi dal segnalare un rallentamento della spesa, l’evento ha sottolineato una fame quasi insaziabile di maggiore capacità AI. Il consenso non riguardava la riduzione dei costi, ma piuttosto come soddisfare un appetito in crescita esponenziale per i sistemi intelligenti, pur desiderando disperatamente che il menu fosse meno costoso.
Voci dalle Trincee: Una Sete Insaziabile di Capacità
Le discussioni durante l’evento di un giorno, che ha riunito sviluppatori, strateghi e investitori, sono costantemente tornate sul tema della domanda crescente che guida investimenti monumentali. Mandeep Singh, analista tecnologico senior di Bloomberg Intelligence e uno degli organizzatori dell’evento, ha catturato sinteticamente il sentimento prevalente. Riflettendo sui numerosi panel e discussioni di esperti, ha notato un ritornello universale: nessuno dei partecipanti sentiva di possedere una capacità AI sufficiente. La sensazione predominante era quella di aver bisogno di più, non di averne troppo.
Fondamentalmente, ha aggiunto Singh, lo spettro di una “bolla infrastrutturale”, una paura comune nei settori tecnologici in rapida espansione, era notevolmente assente dalla conversazione. L’attenzione è rimasta saldamente sulla sfida fondamentale che l’intera industria deve affrontare. Anurag Rana, collega di Singh e analista senior di Bloomberg Intelligence per i servizi IT e il software, l’ha inquadrata come la domanda fondamentale: “A che punto siamo in quel ciclo [di costruzione dell’infrastruttura AI]?”
Pur riconoscendo che individuare la fase esatta di questa massiccia costruzione rimane elusivo (“Nessuno lo sa” con certezza, ha ammesso Rana), il fenomeno DeepSeek ha innegabilmente cambiato le prospettive. Ha iniettato una potente dose di speranza che carichi di lavoro AI significativi potessero potenzialmente essere gestiti in modo più economico. “DeepSeek ha scosso molte persone”, ha osservato Rana. L’implicazione era chiara: se modelli AI sofisticati potessero davvero funzionare in modo efficiente su hardware meno esigente, forse progetti giganteschi, come le iniziative da svariate centinaia di miliardi di dollari che si vocifera siano pianificate da consorzi che coinvolgono i principali attori tecnologici, potrebbero essere rivalutati o dimensionati diversamente.
Il sogno, riecheggiato in tutto il settore secondo Rana, è che i costi operativi dell’AI, in particolare per l’inference (la fase in cui i modelli addestrati generano previsioni o contenuti), seguano la drammatica traiettoria discendente osservata nello storage del cloud computing nell’ultimo decennio. Ha ricordato come l’economia dell’archiviazione di vaste quantità di dati su piattaforme come Amazon Web Services (AWS) sia migliorata drasticamente in circa otto anni. “Quel calo nella curva dei costi… l’economia era buona”, ha affermato. “E questo è ciò che tutti sperano, che sul lato dell’inference… se la curva scende a quel livello, oh mio dio, il tasso di adozione dell’AI… sarà spettacolare”. Singh ha concordato, notando che l’arrivo di DeepSeek ha fondamentalmente “cambiato la mentalità di tutti riguardo al raggiungimento dell’efficienza”.
Questo desiderio di efficienza era palpabile durante le sessioni della conferenza. Mentre numerosi panel approfondivano gli aspetti pratici del passaggio dei progetti AI aziendali dalle fasi concettuali alla produzione live, una discussione parallela enfatizzava costantemente la necessità critica di tagliare i costi associati all’implementazione e all’esecuzione di questi modelli AI. L’obiettivo è chiaro: democratizzare l’accesso rendendo l’AI economicamente sostenibile per una gamma più ampia di applicazioni e utenti. Shawn Edwards, il chief technologist di Bloomberg, ha suggerito che DeepSeek non fosse necessariamente una sorpresa completa, ma piuttosto una potente illustrazione di un desiderio universale. “Ciò che mi ha fatto pensare è che sarebbe fantastico se si potesse agitare una bacchetta magica e far funzionare questi modelli in modo incredibilmente efficiente”, ha osservato, estendendo il desiderio all’intero spettro dei modelli AI, non solo a una specifica innovazione.
Il Principio della Proliferazione: Alimentare la Domanda di Calcolo
Uno dei motivi principali per cui gli esperti anticipano investimenti continui e sostanziali nell’infrastruttura AI, nonostante la ricerca dell’efficienza, risiede nella pura proliferazione dei modelli AI. Un tema ricorrente durante la conferenza di New York è stato il deciso allontanamento dall’idea di un singolo modello AI monolitico in grado di gestire tutti i compiti.
- Una Questione di Famiglia: Come ha detto Edwards di Bloomberg, “Usiamo una famiglia di modelli. Non esiste un modello migliore”. Ciò riflette una crescente comprensione del fatto che diverse architetture AI eccellono in compiti diversi: generazione di linguaggio, analisi dei dati, riconoscimento di immagini, completamento del codice e così via.
- Personalizzazione Aziendale: I partecipanti ai panel hanno ampiamente concordato sul fatto che, mentre i grandi modelli “fondamentali” o “di frontiera” per scopi generali continueranno ad essere sviluppati e perfezionati dai principali laboratori AI, la vera azione all’interno delle aziende comporta l’implementazione di potenzialmente centinaia o addirittura migliaia di modelli AI specializzati.
- Fine-Tuning e Dati Proprietari: Molti di questi modelli aziendali saranno adattati da modelli di base attraverso un processo chiamato fine-tuning. Ciò comporta il riaddestramento di una rete neurale pre-addestrata sui dati specifici, spesso proprietari, di un’azienda. Ciò consente all’AI di comprendere contesti aziendali unici, terminologia e interazioni con i clienti, fornendo risultati molto più pertinenti e preziosi di quanto potrebbe fare un modello generico.
- Democratizzazione dello Sviluppo: Jed Dougherty, in rappresentanza della piattaforma di data science Dataiku, ha evidenziato la necessità di “opzionalità tra i modelli” per gli agenti AI aziendali. Ha sottolineato l’importanza di dare alle aziende controllo, capacità di creazione e auditability sui loro strumenti AI. “Vogliamo mettere gli strumenti per costruire queste cose nelle mani delle persone”, ha affermato Dougherty. “Non vogliamo dieci PhD che costruiscano tutti gli agenti”. Questa spinta verso una più ampia accessibilità nello sviluppo stesso implica la necessità di una maggiore infrastruttura sottostante per supportare questi sforzi di creazione distribuiti.
- AI Specifica per il Marchio: Le industrie creative offrono un ottimo esempio. Hannah Elsakr, alla guida delle nuove iniziative commerciali di Adobe, ha spiegato la loro strategia che punta sui modelli personalizzati come elemento chiave di differenziazione. “Possiamo addestrare estensioni di modelli personalizzate per il tuo marchio che possono essere d’aiuto per una nuova campagna pubblicitaria”, ha illustrato, mostrando come l’AI possa essere adattata per mantenere specifiche estetiche e messaggi del marchio.
Oltre alla diversificazione dei modelli, la crescente implementazione di agenti AI all’interno dei flussi di lavoro aziendali è un altro significativo motore della domanda di elaborazione. Questi agenti sono concepiti non solo come strumenti passivi, ma come partecipanti attivi in grado di eseguire compiti multi-step.
Ray Smith, a capo degli sforzi di Microsoft per gli agenti e l’automazione di Copilot Studio, ha previsto un futuro in cui gli utenti interagiranno con potenzialmente centinaia di agenti specializzati attraverso un’interfaccia unificata come Copilot. “Non si stipa un intero processo in un unico agente, lo si suddivide in parti”, ha spiegato. Questi agenti, ha suggerito, sono essenzialmente “app nel nuovo mondo” della programmazione. La visione è quella in cui gli utenti dichiarano semplicemente il loro obiettivo - “dirgli cosa vogliamo realizzare” - e l’agente orchestra i passaggi necessari. “Le app agentiche sono solo un nuovo modo di fare workflow”, ha affermato Smith, sottolineando che realizzare questa visione è meno una questione di possibilità tecnologica (“è tutto tecnologicamente possibile”) e più una questione di “ritmo con cui la costruiamo”.
Questa spinta a integrare più profondamente gli agenti AI nei processi organizzativi quotidiani intensifica ulteriormente la pressione per la riduzione dei costi e l’implementazione efficiente. James McNiven, responsabile della gestione del prodotto presso il gigante dei microprocessori ARM Holdings, ha inquadrato la sfida in termini di accessibilità. “Come forniamo l’accesso su sempre più dispositivi?” si è chiesto. Osservando modelli che raggiungono capacità quasi da “livello PhD” in compiti specifici, ha tracciato un parallelo con l’impatto trasformativo dell’introduzione dei sistemi di pagamento mobile nei paesi in via di sviluppo anni fa. La domanda fondamentale rimane: “Come portiamo quella [capacità AI] alle persone che possono usare quella capacità?” Rendere gli agenti AI sofisticati prontamente disponibili come assistenti per un’ampia fascia della forza lavoro richiede non solo software intelligente ma anche hardware efficiente e, inevitabilmente, maggiori investimenti nell’infrastruttura sottostante, anche se l’efficienza per calcolo migliora.
Ostacoli di Scalabilità: Silicio, Energia e i Colossi del Cloud
Anche i modelli fondamentali generici più utilizzati si stanno moltiplicando a un ritmo sbalorditivo, mettendo a dura prova l’infrastruttura esistente. Dave Brown, che supervisiona il calcolo e il networking per Amazon Web Services (AWS), ha rivelato che la loro piattaforma da sola offre ai clienti l’accesso a circa 1.800 diversi modelli AI. Ha sottolineato l’intensa attenzione di AWS nel “fare molto per abbassare il costo” di esecuzione di questi potenti strumenti.
Una strategia chiave per i fornitori di cloud come AWS prevede lo sviluppo del proprio silicio personalizzato. Brown ha evidenziato l’uso crescente di chip progettati da AWS, come i loro processori Trainium ottimizzati per l’addestramento AI, affermando: “AWS sta utilizzando più dei nostri processori rispetto ai processori di altre aziende”. Questa mossa verso hardware specializzato e interno mira a ottenere il controllo sulle prestazioni e sui costi, riducendo la dipendenza da fornitori di chip generici come Nvidia, AMD e Intel. Nonostante questi sforzi, Brown ha candidamente riconosciuto la realtà fondamentale: “I clienti farebbero di più se il costo fosse inferiore”. Il tetto della domanda è attualmente definito più dai vincoli di budget che dalla mancanza di potenziali applicazioni.
La scala delle risorse richieste dai principali sviluppatori di AI è immensa. Brown ha notato la collaborazione quotidiana di AWS con Anthropic, i creatori della sofisticata famiglia di modelli linguistici Claude. Michael Gerstenhaber, responsabile delle interfacce di programmazione delle applicazioni di Anthropic, parlando accanto a Brown, ha sottolineato l’intensità computazionale dell’AI moderna, in particolare dei modelli progettati per il ragionamento complesso o il “pensiero”. Questi modelli spesso generano spiegazioni dettagliate passo dopo passo per le loro risposte, consumando una notevole potenza di elaborazione. “I modelli pensanti causano l’utilizzo di molta capacità”, ha affermato Gerstenhaber.
Mentre Anthropic lavora attivamente con AWS su tecniche di ottimizzazione come il “prompt caching” (memorizzazione e riutilizzo dei calcoli da interazioni precedenti per risparmiare risorse), il requisito hardware fondamentale rimane enorme. Gerstenhaber ha dichiarato senza mezzi termini che Anthropic necessita di “centinaia di migliaia di acceleratori” - chip AI specializzati - distribuiti “in molti data center” semplicemente per eseguire la sua attuale suite di modelli. Questo fornisce un senso concreto della pura scala delle risorse di calcolo che sostengono solo uno dei principali attori dell’AI.
A complicare la sfida dell’approvvigionamento e della gestione di vaste flotte di silicio c’è il consumo energetico a spirale associato all’AI. Brown ha evidenziato questo come una preoccupazione critica e in rapida escalation. Gli attuali data center che supportano carichi di lavoro AI intensivi stanno già consumando energia misurata in centinaia di megawatt. Le proiezioni suggeriscono che i requisiti futuri saliranno inevitabilmente nella gamma dei gigawatt - la produzione di grandi centrali elettriche. “L’energia che consuma”, ha avvertito Brown, riferendosi all’AI, “è grande, e l’impronta è grande in molti data center”. Questa crescente domanda di energia presenta non solo immensi costi operativi, ma anche significative sfide ambientali e logistiche per l’ubicazione e l’alimentazione della prossima generazione di infrastrutture AI.
L’Incognita Economica: Un’Ombra sui Piani di Crescita
Nonostante le prospettive ottimistiche guidate dai progressi tecnologici e dai casi d’uso in crescita, una variabile significativa incombe su tutte le proiezioni per gli investimenti in AI: il più ampio clima economico. Mentre la conferenza di Bloomberg Intelligence si concludeva, i partecipanti stavano già osservando nervosismo sui mercati derivante dai pacchetti tariffari globali appena annunciati, percepiti come più estesi del previsto.
Questo serve come potente promemoria del fatto che ambiziose roadmap tecnologiche possono essere rapidamente interrotte da venti contrari macroeconomici. Rana di Bloomberg ha avvertito che, sebbene la spesa per l’AI possa essere inizialmente in qualche modo isolata, le aree tradizionali degli investimenti IT aziendali, come server e storage non correlati all’AI, potrebbero essere le prime vittime in una contrazione economica. “L’altra grande cosa su cui ci stiamo concentrando è la spesa tecnologica non-AI”, ha osservato, esprimendo preoccupazione per il potenziale impatto sui principali fornitori di servizi tecnologici in vista della stagione degli utili, ancor prima di considerare specificamente i budget AI.
Esiste tuttavia una teoria prevalente secondo cui l’AI potrebbe rivelarsi particolarmente resiliente. Rana ha suggerito che i Chief Financial Officer (CFO) delle grandi aziende, di fronte a vincoli di budget dovuti all’incertezza economica o persino a una recessione, potrebbero scegliere di dare priorità alle iniziative AI. Potrebbero potenzialmente spostare fondi da aree meno critiche per proteggere gli investimenti strategici in AI percepiti come cruciali per la competitività futura.
Tuttavia, questa visione ottimistica è tutt’altro che garantita. Il test finale, secondo Rana, sarà se le grandi aziende manterranno i loro aggressivi obiettivi di spesa in conto capitale, in particolare per la costruzione di data center AI, di fronte alla crescente incertezza economica. La domanda critica rimane: “Diranno, ‘Sai cosa? È troppo incerto’”. La risposta determinerà se lo slancio apparentemente inarrestabile dietro la spesa per l’infrastruttura AI continuerà la sua ascesa implacabile o affronterà una pausa inaspettata dettata dalle realtà economiche globali.