I Primi Giorni di OpenAI e i Cambiamenti di Rotta
Prima del 2019, OpenAI era considerata una sorta di anomalìa nella comunità di ricerca sull’IA. La sua audace affermazione di raggiungere l’Intelligenza Artificiale Generale (AGI) entro un decennio fu accolta con scetticismo da molti. Nonostante finanziamenti significativi, l’azienda mancava di una direzione chiara e i suoi sforzi di marketing erano spesso percepiti come un’eccessiva enfasi su ricerche ritenute non originali da altri esperti. Tuttavia, OpenAI attirava anche invidia. Essendo un’organizzazione senza scopo di lucro, dichiarava di non avere alcun interesse nella commercializzazione, creando un ambiente unico per l’esplorazione intellettuale, libero dalle restrizioni delle pressioni finanziarie.
Tuttavia, nei sei mesi precedenti la mia visita, una serie di rapidi cambiamenti aveva suggerito una significativa svolta nella direzione di OpenAI. Il primo segnale fu la controversa decisione di non rilasciare GPT-2, nonostante la pubblicazione delle sue capacità. Poi venne l’annuncio della nomina di Sam Altman come CEO, dopo la sua partenza da Y Combinator (YC), insieme alla creazione di una struttura a “profitto limitato”. In mezzo a questi sviluppi, OpenAI rivelò una partnership con Microsoft, concedendo al gigante tecnologico la priorità nella commercializzazione delle tecnologie di OpenAI e l’uso esclusivo dei servizi cloud di Microsoft Azure.
Ciascuno di questi annunci generò polemiche, speculazioni e una crescente attenzione, raggiungendo i confini dell’industria tecnologica. Mentre i cambiamenti si sviluppavano, era difficile comprenderne appieno il significato. Era evidente, tuttavia, che OpenAI stava iniziando a esercitare una notevole influenza sulla ricerca sull’IA e sul modo in cui i politici comprendevano la tecnologia. La decisione di passare a un’attività parzialmente a scopo di lucro avrebbe sicuramente avuto ampie ripercussioni in tutto il settore e nel governo.
Una sera, incoraggiata dal mio redattore, mi sono messa in contatto con Jack Clark, il direttore delle politiche di OpenAI, con il quale avevo parlato in precedenza. Ho proposto un profilo su OpenAI, intuendo che fosse un momento cruciale nella storia dell’azienda. Clark mi ha messo in contatto con il responsabile delle comunicazioni, che ha esteso un invito ad intervistare la leadership e ad integrarmi all’interno dell’azienda per tre giorni.
All’Interno di OpenAI: Missione e Ambizione
Brockman e io siamo stati raggiunti dallo scienziato capo Ilya Sutskever in una sala riunioni di vetro. Seduti fianco a fianco, integravano i reciproci ruoli. Brockman, il programmatore e implementatore, sembrava desideroso di fare una buona impressione, mentre Sutskever, il ricercatore e filosofo, appariva più rilassato e distaccato.
Ho iniziato chiedendo della missione di OpenAI: garantire un’AGI benefica. Perché investire miliardi in questo problema rispetto ad altri?
Brockman, esperto nel difendere la posizione di OpenAI, ha affermato che l’AGI era cruciale per risolvere problemi complessi al di là delle capacità umane. Ha citato il cambiamento climatico e la medicina come esempi, illustrando il potenziale dell’AGI per analizzare vaste quantità di dati e accelerare i progressi in queste aree critiche.
Ha raccontato l’esperienza di un amico con una rara patologia, evidenziando come l’AGI potrebbe snellire la diagnostica e il trattamento collegando gli specialisti in modo efficiente.
Ho quindi chiesto della distinzione tra AGI e AI.
AGI, un tempo un concetto di nicchia, aveva guadagnato terreno, in gran parte grazie all’influenza di OpenAI. AGI si riferisce a un’IA ipotetica che corrisponde o supera l’intelligenza umana nella maggior parte dei compiti economicamente validi. Mentre i ricercatori avevano fatto progressi, i dibattiti persistevano sulla possibilità di simulare la coscienza umana.
AI, d’altra parte, si riferiva sia alla tecnologia attuale che alle capacità del prossimo futuro, dimostrando applicazioni nella mitigazione del cambiamento climatico e nell’assistenza sanitaria.
Sutskever ha aggiunto che l’AGI potrebbe risolvere le sfide globali consentendo a computer intelligenti di comunicare e lavorare insieme in modo più efficiente rispetto agli umani, aggirando i problemi di incentivo.
Questa affermazione mi ha portato a chiedermi se l’AGI fosse destinata a sostituire gli umani. Brockman ha risposto che la tecnologia dovrebbe servire le persone e garantire la “libertà economica” mantenendo la loro qualità di vita.
Brockman ha sostenuto che il ruolo di OpenAI non era quello di determinare se l’AGI sarebbe stata costruita, ma piuttosto di influenzare le circostanze in cui sarebbe stata creata. Ha sottolineato che la loro missione era quella di garantire che l’AGI avvantaggiasse tutta l’umanità costruendola e distribuendo i suoi benefici economici.
La nostra conversazione è continuata in cerchio, con un successo limitato nell’ottenere dettagli concreti. Ho tentato un approccio diverso, chiedendo dei potenziali inconvenienti della tecnologia.
Brockman ha citato i deepfake come una possibile applicazione negativa.
Ho sollevato l’impatto ambientale dell’IA stessa.
Sutskever ha riconosciuto il problema, ma ha sostenuto che l’AGI potrebbe contrastare il costo ambientale. Ha sottolineato la necessità di data center ecologici.
“I data center sono i maggiori consumatori di energia, di elettricità”, ha continuato Sutskever.
“È il 2 percento a livello globale”, ho offerto.
“Bitcoin non è come l’1 percento?” ha detto Brockman.
Sutskever avrebbe poi detto: “Penso che sia abbastanza probabile che non ci vorrà molto tempo prima che l’intera superficie della Terra venga ricoperta di data center e centrali elettriche”. Ci sarebbe “uno tsunami di calcolo… quasi come un fenomeno naturale”.
Li ho sfidati dicendo che OpenAI stava scommettendo sul fatto che avrebbe raggiunto con successo un’AGI benefica per contrastare il riscaldamento globale prima che l’atto di farlo potesse aggravarlo.
Brockman ha detto frettolosamente: “Il modo in cui la pensiamo è il seguente: siamo su una rampa di lancio del progresso dell’IA. Questo è più grande di OpenAI, giusto? È il campo. E penso che la società stia effettivamente ottenendo benefici da esso”.
“Il giorno in cui abbiamo annunciato l’accordo”, ha detto, riferendosi al nuovo investimento di 1 miliardo di dollari di Microsoft, “la capitalizzazione di mercato di Microsoft è aumentata di 10 miliardi di dollari. Le persone credono che ci sia un ROI positivo anche solo sulla tecnologia a breve termine”.
La strategia di OpenAI era quindi abbastanza semplice, ha spiegato: stare al passo con quel progresso.
Più tardi quel giorno, Brockman ha ribadito che nessuno sapeva davvero come sarebbe stata l’AGI, aggiungendo che il loro compito era quello di continuare a spingere in avanti, per scoprire la forma della tecnologia passo dopo passo.
Dietro le Quinte: Trasparenza e Controllo
Originariamente avrei dovuto pranzare con i dipendenti nella mensa, ma mi è stato detto che dovevo essere fuori dall’ufficio. Brockman sarebbe stato il mio accompagnatore.
Questo schema si è ripetuto durante tutta la mia visita: accesso limitato a determinate aree, riunioni a cui non potevo partecipare e ricercatori che lanciavano occhiate al responsabile delle comunicazioni per assicurarsi di non violare alcuna politica di divulgazione. Dopo la mia visita, Jack Clark ha inviato un severo avvertimento ai dipendenti su Slack di non parlare con me oltre le conversazioni autorizzate. Anche la guardia di sicurezza ha ricevuto la mia fotografia, in modo che potesse cercarmi se fossi apparso senza approvazione nei locali. Questi comportamenti contrastavano con l’impegno di OpenAI per la trasparenza, sollevando domande su cosa si stesse nascondendo.
Durante il pranzo e nei giorni successivi, ho chiesto a Brockman quali fossero le sue motivazioni per aver co-fondato OpenAI. Ha affermato di essere diventato ossessionato dall’idea di replicare l’intelligenza umana dopo un articolo di Alan Turing. Lo ha ispirato. Ha programmato un gioco di test di Turing e lo ha messo online, raccogliendo circa 1.500 visite. Lo ha fatto sentire benissimo. “Ho semplicemente capito che era il tipo di cosa che volevo perseguire”, ha detto.
È entrato in OpenAI come co-fondatore nel 2015, notando che avrebbe fatto qualsiasi cosa per portare a compimento l’AGI, anche se significava fare il bidello. Quando si è sposato quattro anni dopo, ha celebrato una cerimonia civile nell’ufficio di OpenAI di fronte a un muro di fiori personalizzato con la forma del logo esagonale del laboratorio. Sutskever ha officiato.
“Fondamentalmente, voglio lavorare sull’AGI per il resto della mia vita”, mi ha detto Brockman.
Ho chiesto cosa lo motivasse.
Brockman ha menzionato le possibilità di lavorare su una tecnologia trasformativa durante la sua vita. Credeva di essere in una posizione unica per realizzare quella trasformazione. “Ciò che mi attrae davvero sono i problemi che non si risolveranno nello stesso modo se non partecipo”, ha detto.
Voleva guidare l’AGI e desiderava il riconoscimento per i suoi risultati. Nel 2022, è diventato presidente di OpenAI.
Profitto, Missione e Competizione
Durante le nostre conversazioni, Brockman ha affermato che i cambiamenti strutturali di OpenAI non hanno alterato la sua missione principale. La struttura a profitto limitato e i nuovi investitori l’hanno migliorata. “Siamo riusciti a ottenere questi investitori allineati alla missione che sono disposti a dare la priorità alla missione rispetto ai rendimenti. È una cosa folle”, ha detto.
OpenAI ora aveva le risorse per scalare i suoi modelli e rimanere davanti alla concorrenza. Non farlo potrebbe minare la sua missione. Fu questa ipotesi a mettere in moto tutte le azioni di OpenAI e le loro conseguenze di vasta portata. Ha messo un orologio a ogni progresso della ricerca di OpenAI, basato non sulla scala temporale di un’attenta deliberazione, ma sul ritmo implacabile richiesto per tagliare il traguardo prima di chiunque altro. Ha giustificato il consumo di un’inimmaginabile quantità di risorse da parte di OpenAI.
Brockman ha sottolineato l’importanza di ridistribuire i benefici dell’AGI.
Ho chiesto esempi storici di tecnologie che hanno distribuito con successo i benefici al pubblico.
“Beh, in realtà penso che sia interessante guardare anche a Internet come esempio”, ha detto. “Ci sono anche problemi, giusto?” ha detto come avvertimento. “Ogni volta che hai qualcosa di super trasformativo, non sarà facile capire come massimizzare il positivo e ridurre al minimo il negativo.
“Il fuoco è un altro esempio”, ha aggiunto. “Ha anche dei veri inconvenienti. Quindi dobbiamo capire come tenerlo sotto controllo e avere standard condivisi.
“Le auto sono un buon esempio”, ha continuato. “Molte persone hanno auto, ne beneficiano molte persone. Hanno anche degli inconvenienti. Hanno alcune esternalità che non sono necessariamente buone per il mondo”, ha concluso esitante.
“Immagino che io veda… la cosa che vogliamo per l’AGI non è così diversa dai lati positivi di Internet, dai lati positivi delle auto, dai lati positivi del fuoco. L’implementazione è molto diversa, però, perché è un tipo di tecnologia molto diverso”.
I suoi occhi si sono illuminati con una nuova idea. “Basta guardare alle utility. Le compagnie elettriche sono entità molto centralizzate che forniscono cose a basso costo e di alta qualità che migliorano significativamente la vita delle persone”.
Brockman sembrava ancora una volta poco chiaro su come OpenAI si sarebbe trasformata in una utility.
È tornato all’unica cosa che sapeva per certo. OpenAI si è impegnata a ridistribuire i benefici dell’AGI e a dare a tutti la libertà economica. “Lo intendiamo davvero”, ha detto.
“Il modo in cui la pensiamo è: la tecnologia finora è stata qualcosa che fa salire tutte le barche, ma ha questo reale effetto di concentrazione”, ha detto. “L’AGI potrebbe essere più estrema. Cosa succederebbe se tutto il valore venisse bloccato in un unico posto? Questa è la traiettoria su cui siamo come società. E non abbiamo mai visto un suo estremo. Non penso che sia un buon mondo. Non è un mondo che voglio aiutare a costruire”.
Ricadute e Reazioni
Nel febbraio 2020, ho pubblicato il mio profilo per MIT Technology Review, rivelando un disallineamento tra l’immagine pubblica di OpenAI e le sue pratiche interne. Ho detto che “Nel tempo, ha permesso a una feroce competitività e a una crescente pressione per sempre più finanziamenti di erodere i suoi ideali fondanti di trasparenza, apertura e collaborazione”.
Elon Musk ha risposto con tre tweet:
“OpenAI dovrebbe essere più aperta imo”
“Non ho alcun controllo e solo una visione molto limitata di OpenAI. La fiducia in Dario per la sicurezza non è alta”, ha detto, riferendosi a Dario Amodei, il direttore della ricerca.
“Tutte le organizzazioni che sviluppano IA avanzata dovrebbero essere regolate, inclusa Tesla”
Altman ha inviato un’e-mail ai dipendenti di OpenAI.
“Anche se sicuramente non è catastrofico, è stato chiaramente negativo”, ha scritto, riferendosi all’articolo di MIT Technology Review.
Ha scritto che era “una critica giusta”, che il pezzo aveva identificato una disconnessione tra la percezione di OpenAI e la sua realtà. Avrebbe suggerito che Amodei e Musk si incontrassero per risolvere le critiche di Musk. Per evitare ogni dubbio, il lavoro di Amodei e la sicurezza dell’IA erano fondamentali per la missione, ha scritto. “Penso che a un certo punto in futuro dovremmo trovare un modo per difendere pubblicamente il nostro team (ma non dare alla stampa la lotta pubblica che amerebbero in questo momento)”.
Dopo l’articolo, OpenAI non mi ha più parlato per tre anni.