Sfida Reale: Creare App AI Aziendali

La Vera Sfida: Costruire Applicazioni di Intelligenza Artificiale Aziendale

Mentre ogni anno vengono investite innumerevoli risorse nell’addestramento di modelli linguistici di grandi dimensioni (LLM), rimane un ostacolo significativo: integrare efficacemente questi modelli in applicazioni pratiche e utili.

L’Illusione del Fine-Tuning

Il fine-tuning e la Generazione Augmentata dal Recupero (RAG) sono generalmente considerati metodi ben consolidati per migliorare la conoscenza e le capacità dei modelli di intelligenza artificiale pre-addestrati. Tuttavia, l’amministratore delegato di Aleph Alpha, Jonas Andrulis, sottolinea che la realtà è più complessa.

“Un anno fa, c’era una diffusa convinzione che il fine-tuning fosse una soluzione magica. Se un sistema di intelligenza artificiale non funzionava come desiderato, la risposta era semplicemente il fine-tuning. Non è così semplice”, ha spiegato.

Sebbene il fine-tuning possa modificare lo stile o il comportamento di un modello, non è l’approccio più efficace per insegnare nuove informazioni. L’aspettativa che il fine-tuning da solo possa risolvere tutti i problemi delle applicazioni di intelligenza artificiale è un’idea sbagliata.

RAG: Un Approccio Alternativo

RAG offre un’alternativa funzionando come un bibliotecario che recupera informazioni da un archivio esterno. Questo approccio consente di aggiornare e modificare le informazioni all’interno del database senza riqualificare o mettere a punto il modello. Inoltre, i risultati generati possono essere citati e verificati per verificarne l’accuratezza.

“La conoscenza specifica dovrebbe sempre essere documentata e non archiviata all’interno dei parametri dell’LLM”, ha sottolineato Andrulis.

Sebbene RAG offra numerosi vantaggi, il suo successo dipende dalla corretta documentazione dei processi chiave, delle procedure e della conoscenza istituzionale in un formato che il modello possa comprendere. Sfortunatamente, questo spesso non è il caso.

Anche quando la documentazione esiste, le aziende possono riscontrare problemi se i documenti o i processi si basano su dati fuori distribuzione, ovvero dati che differiscono in modo significativo dai dati utilizzati per addestrare il modello di base. Ad esempio, un modello addestrato esclusivamente su set di dati in inglese avrà difficoltà con la documentazione in tedesco, soprattutto se contiene formule scientifiche. In molti casi, il modello potrebbe non essere in grado di interpretare affatto i dati.

Pertanto, Andrulis suggerisce che una combinazione di fine-tuning e RAG è in genere necessaria per ottenere risultati significativi. Questo approccio ibrido sfrutta i punti di forza di entrambi i metodi per superare i loro limiti individuali.

Colmare il Divario

Aleph Alpha mira a distinguersi come una DeepMind europea affrontando le sfide che impediscono alle imprese e alle nazioni di sviluppare le proprie intelligenze artificiali sovrane.

L’intelligenza artificiale sovrana si riferisce a modelli addestrati o messi a punto utilizzando i set di dati interni di una nazione su hardware costruito o distribuito all’interno dei suoi confini. Questo approccio garantisce la privacy, la sicurezza e il controllo dei dati, che sono fondamentali per molte organizzazioni e governi.

“Ci sforziamo di essere il sistema operativo, la base per le imprese e i governi per costruire la propria strategia di intelligenza artificiale sovrana”, ha affermato Andrulis. “Miriamo a innovare dove necessario, sfruttando al contempo tecnologie open source e all’avanguardia ove possibile.”

Sebbene ciò a volte implichi l’addestramento di modelli, come Pharia-1-LLM di Aleph, Andrulis sottolinea che non stanno cercando di replicare modelli esistenti come Llama o DeepSeek. Il loro obiettivo è creare soluzioni uniche che affrontino sfide specifiche.

“Dirigo sempre la nostra ricerca a concentrarmi su cose significativamente diverse, non solo a copiare ciò che fanno tutti gli altri, perché esiste già”, ha detto Andrulis. “Non abbiamo bisogno di costruire un altro Llama o DeepSeek perché esistono già.”

Invece, Aleph Alpha si concentra sulla costruzione di framework che semplificano e razionalizzano l’adozione di queste tecnologie. Un esempio recente è la loro nuova architettura di addestramento senza tokenizer, o “T-Free”, che mira a mettere a punto modelli in grado di comprendere i dati fuori distribuzione in modo più efficiente.

Gli approcci tradizionali basati su tokenizer spesso richiedono grandi quantità di dati fuori distribuzione per mettere a punto efficacemente un modello. Questo è costoso dal punto di vista computazionale e presuppone che siano disponibili dati sufficienti.

L’architettura T-Free di Aleph Alpha aggira questo problema eliminando il tokenizer. I primi test sul loro Pharia LLM in lingua finlandese hanno mostrato una riduzione del 70% dei costi di addestramento e dell’impronta di carbonio rispetto agli approcci basati su tokenizer. Questo approccio innovativo rende il fine-tuning più accessibile e sostenibile.

Aleph Alpha ha anche sviluppato strumenti per colmare le lacune nella conoscenza documentata che possono portare a conclusioni imprecise o inutili.

Ad esempio, se due contratti rilevanti per una domanda di conformità si contraddicono a vicenda, “il sistema può avvicinarsi all’essere umano e dire: ‘Ho trovato una discrepanza… puoi fornire un feedback sul fatto che si tratti di un conflitto reale?’” ha spiegato Andrulis.

Le informazioni raccolte attraverso questo framework, chiamato Pharia Catch, possono essere reintrodotte nella knowledge base dell’applicazione o utilizzate per mettere a punto modelli più efficaci. Questo ciclo di feedback migliora l’accuratezza e l’affidabilità del sistema di intelligenza artificiale nel tempo.

Secondo Andrulis, questi strumenti hanno attirato partner come PwC, Deloitte, Capgemini e Supra, che lavorano con i clienti finali per implementare la tecnologia di Aleph Alpha. Queste partnership dimostrano il valore e la praticità delle soluzioni di Aleph Alpha nelle applicazioni del mondo reale.

Il Fattore Hardware

Software e dati non sono le uniche sfide che devono affrontare gli utenti di Sovereign AI. L’hardware è un’altra considerazione critica.

Diverse imprese e nazioni possono avere requisiti specifici per l’esecuzione su hardware sviluppato a livello nazionale o possono semplicemente dettare dove possono essere eseguiti i carichi di lavoro. Questi vincoli possono influire in modo significativo sulla scelta dell’hardware e dell’infrastruttura.

Ciò significa che Andrulis e il suo team devono supportare un’ampia gamma di opzioni hardware. Aleph Alpha ha attirato un gruppo eclettico di partner hardware, tra cui AMD, Graphcore e Cerebras.

Il mese scorso, Aleph Alpha ha annunciato una partnership con AMD per utilizzare i suoi acceleratori della serie MI300. Questa collaborazione sfrutterà l’hardware avanzato di AMD per accelerare l’addestramento e l’inferenza dell’intelligenza artificiale.

Andrulis ha anche evidenziato le collaborazioni con Graphcore, acquisita da Softbank, e Cerebras, i cui acceleratori CS-3 su scala wafer vengono utilizzati per addestrare modelli di intelligenza artificiale per le forze armate tedesche. Queste partnership dimostrano l’impegno di Aleph Alpha a collaborare con diversi fornitori di hardware per soddisfare le esigenze specifiche dei propri clienti.

Nonostante queste collaborazioni, Andrulis insiste sul fatto che l’obiettivo di Aleph Alpha non è quello di diventare un fornitore di servizi gestiti o cloud. “Non diventeremo mai un fornitore di cloud”, ha affermato. “Voglio che i miei clienti siano liberi e senza essere bloccati.” Questo impegno per la libertà e la flessibilità del cliente distingue Aleph Alpha da molte altre società di intelligenza artificiale.

La Strada da Percorrere: Aumentare la Complessità

Guardando al futuro, Andrulis prevede che la costruzione di applicazioni di intelligenza artificiale diventerà più complessa man mano che il settore passerà dai chatbot ai sistemi di intelligenza artificiale agentici in grado di risolvere problemi più sofisticati.

L’intelligenza artificiale agentica ha attirato una notevole attenzione nell’ultimo anno, con costruttori di modelli, sviluppatori di software e fornitori di hardware che promettono sistemi in grado di completare processi multi-step in modo asincrono. I primi esempi includono l’operatore di OpenAI e l’API di utilizzo del computer di Anthropic. Questi sistemi di intelligenza artificiale agentici rappresentano un significativo progresso nelle capacità dell’intelligenza artificiale.

“L’anno scorso, ci siamo concentrati principalmente su attività semplici come il riepilogo di documenti o l’assistenza alla scrittura”, ha affermato. “Ora, sta diventando più eccitante con cose che, a prima vista, non sembrano nemmeno problemi di genAI, dove l’esperienza utente non è un chatbot.” Questo passaggio verso applicazioni di intelligenza artificiale più complesse e integrate presenta nuove sfide e opportunità per il settore.

Sfide Chiave nella Costruzione di Applicazioni di Intelligenza Artificiale Aziendale:

  • Colmare il divario tra l’addestramento del modello e l’integrazione dell’applicazione: Tradurre efficacemente le capacità degli LLM in applicazioni pratiche rimane un ostacolo significativo.
  • Superare i limiti del fine-tuning: Il fine-tuning da solo è spesso insufficiente per insegnare ai modelli di intelligenza artificiale nuove informazioni o adattarli a compiti specifici.
  • Garantire la qualità e l’accessibilità dei dati: RAG si basa su dati ben documentati e facilmente accessibili, che spesso mancano in molte organizzazioni.
  • Gestire i dati fuori distribuzione: I modelli di intelligenza artificiale devono essere in grado di gestire dati diversi da quelli su cui sono stati addestrati, il che richiede tecniche specializzate.
  • Affrontare i vincoli hardware: Diverse imprese e nazioni hanno requisiti hardware diversi che devono essere presi in considerazione.
  • Mantenere la privacy e la sicurezza dei dati: L’intelligenza artificiale sovrana richiede di garantire che i dati vengano elaborati e archiviati in modo sicuro all’interno dei confini di una nazione.
  • Sviluppare sistemi di intelligenza artificiale agentici: La costruzione di applicazioni di intelligenza artificiale in grado di eseguire complessi processi multi-step in modo asincrono è un’area di ricerca impegnativa ma promettente.

Opportunità Chiave nella Costruzione di Applicazioni di Intelligenza Artificiale Aziendale:

  • Sviluppare soluzioni di intelligenza artificiale innovative: Le sfide nella costruzione di applicazioni di intelligenza artificiale aziendale creano opportunità per lo sviluppo di soluzioni innovative che soddisfino esigenze specifiche.
  • Sfruttare le tecnologie open source: Le tecnologie open source possono aiutare a ridurre i costi e accelerare lo sviluppo di applicazioni di intelligenza artificiale.
  • Collaborare con partner hardware: La collaborazione con partner hardware può aiutare a garantire che le applicazioni di intelligenza artificiale siano ottimizzate per piattaforme hardware specifiche.
  • Costruire capacità di intelligenza artificiale sovrana: L’intelligenza artificiale sovrana può fornire a nazioni e organizzazioni un maggiore controllo sui propri dati e sull’infrastruttura di intelligenza artificiale.
  • Trasformare i settori con l’intelligenza artificiale: L’intelligenza artificiale ha il potenziale per trasformare i settori automatizzando le attività, migliorando il processo decisionale e creando nuovi prodotti e servizi.

Il Futuro delle Applicazioni di Intelligenza Artificiale Aziendale:

Il futuro delle applicazioni di intelligenza artificiale aziendale sarà probabilmente caratterizzato da:

  • Maggiore complessità: Le applicazioni di intelligenza artificiale diventeranno più complesse e integrate, richiedendo competenze e strumenti specializzati.
  • Maggiore attenzione alla qualità dei dati: La qualità dei dati diventerà sempre più importante poiché le applicazioni di intelligenza artificiale si basano su dati accurati e affidabili.
  • Maggiore enfasi sulla sicurezza e la privacy: La sicurezza e la privacy saranno fondamentali poiché le applicazioni di intelligenza artificiale gestiscono dati sensibili.
  • Maggiore adozione dell’intelligenza artificiale agentica: I sistemi di intelligenza artificiale agentica diventeranno più diffusi poiché le organizzazioni cercano di automatizzare attività complesse.
  • Innovazione continua: Il campo dell’intelligenza artificiale continuerà a evolversi rapidamente, portando a nuove scoperte e opportunità.

Affrontando le sfide e cogliendo le opportunità, le organizzazioni possono sfruttare la potenza dell’intelligenza artificiale per trasformare le proprie attività e creare un futuro migliore.