Navigare nel Labirinto Normativo: Un Appello all’Unità (e alla Prelazione)
Un filo conduttore che attraversa le proposte di diverse importanti aziende di IA è una palpabile preoccupazione per il crescente mosaico di regolamenti sull’IA a livello statale. OpenAI, il creatore di ChatGPT, ha esplicitamente chiesto un salvataggio da quello che percepisce come un imminente diluvio di oltre 700 diversi disegni di legge attualmente in circolazione a livello statale. Tuttavia, la soluzione proposta da OpenAI non è una legislazione federale, ma piuttosto un quadro volontario e ristretto. Questo quadro, in modo cruciale, prevarrebbe sulle normative statali, offrendo alle aziende di IA una sorta di porto sicuro. In cambio di questa protezione, le aziende otterrebbero l’accesso a lucrosi contratti governativi e riceverebbero avvisi anticipati su potenziali minacce alla sicurezza. Il governo, a sua volta, sarebbe autorizzato a testare le nuove capacità dei modelli e a confrontarle con quelle delle controparti straniere.
Google fa eco a questo sentimento, sostenendo la prelazione delle leggi statali con un ‘quadro nazionale unificato per i modelli di IA di frontiera’. Questo quadro, secondo Google, dovrebbe dare priorità alla sicurezza nazionale, favorendo al contempo un ambiente favorevole all’innovazione americana nel campo dell’IA. Tuttavia, a differenza di OpenAI, Google non è intrinsecamente contrario alla regolamentazione federale dell’IA, a condizione che si concentri su applicazioni specifiche della tecnologia. Un avvertimento chiave per Google è che gli sviluppatori di IA non dovrebbero essere ritenuti responsabili per l’uso improprio dei loro strumenti da parte di altri. Google ha anche colto l’occasione per spingere per una nuova politica federale sulla privacy, sostenendo che essa influisce sull’industria dell’IA.
Oltre alla regolamentazione interna, Google esorta l’amministrazione statunitense a impegnarsi attivamente con altri governi sulla legislazione in materia di IA. L’azienda mette specificamente in guardia contro leggi che potrebbero costringere le aziende a divulgare segreti commerciali. Prevede una norma internazionale in cui solo il governo del paese di origine di un’azienda avrebbe l’autorità di condurre valutazioni approfondite dei suoi modelli di IA.
La Sfida Cinese: Controlli sulle Esportazioni e Competizione Strategica
Lo spettro dei rapidi progressi della Cina nel campo dell’IA incombe sulle proposte di tutti i principali attori. La regola sulla ‘diffusione dell’IA’, introdotta dall’amministrazione Biden nel gennaio 2024 per limitare l’accesso della Cina alla tecnologia avanzata statunitense, è diventata un punto focale del dibattito. Mentre tutte le aziende hanno riconosciuto l’esistenza della regola, le modifiche proposte rivelano approcci nettamente diversi.
OpenAI propone una strategia di ‘diplomazia commerciale’. Suggerisce di espandere il livello superiore della regola, che attualmente consente importazioni illimitate di chip IA statunitensi, per includere più paesi. La condizione? Questi paesi devono impegnarsi a rispettare i ‘principi democratici dell’IA’, implementando sistemi di IA in modi che ‘promuovano maggiori libertà per i loro cittadini’. Questo approccio cerca di sfruttare la leadership tecnologica statunitense per incentivare l’adozione di una governance dell’IA allineata ai valori a livello globale.
Microsoft condivide il desiderio di OpenAI di espandere il livello superiore della Diffusion Rule. Tuttavia, Microsoft sottolinea anche la necessità di una maggiore applicazione. Chiede maggiori risorse per il Dipartimento del Commercio per garantire che i chip IA all’avanguardia siano esportati e implementati solo in data center certificati come affidabili e sicuri dal governo degli Stati Uniti. Questa misura mira a impedire alle aziende cinesi di aggirare le restrizioni accedendo a potenti chip IA attraverso un crescente ‘mercato grigio’ di fornitori di data center più piccoli e meno controllati in Asia e Medio Oriente.
Anthropic, lo sviluppatore del modello Claude AI, sostiene controlli ancora più severi sui paesi del secondo livello della regola sulla diffusione dell’IA, limitando specificamente il loro accesso ai chip H100 di Nvidia. Inoltre, Anthropic esorta gli Stati Uniti a estendere i controlli sulle esportazioni per includere i chip H20 di Nvidia, che sono stati specificamente progettati per il mercato cinese per conformarsi alle normative statunitensi esistenti. Ciò dimostra la posizione più aggressiva di Anthropic nell’impedire alla Cina di acquisire qualsiasi tecnologia che possa rafforzare le sue capacità di IA.
Google, in una netta divergenza dai suoi concorrenti, esprime un’aperta opposizione alla regola sulla diffusione dell’IA. Pur riconoscendo la validità dei suoi obiettivi di sicurezza nazionale, Google sostiene che la regola impone ‘oneri sproporzionati ai fornitori di servizi cloud statunitensi’. Questa posizione riflette le preoccupazioni più ampie di Google sul potenziale delle normative di soffocare l’innovazione e ostacolare la sua competitività globale.
Oltre alla regola sulla diffusione, OpenAI alza ulteriormente la posta suggerendo un divieto globale sui chip Huawei e sui ‘modelli cinesi che violano la privacy degli utenti e creano rischi per la sicurezza come il rischio di furto di proprietà intellettuale’. Questo viene anche ampiamente interpretato come una frecciatina a DeepSeek.
Il Copyright e il Carburante dell’IA: Navigare nella Proprietà Intellettuale
La spinosa questione del copyright, in particolare nel contesto dell’addestramento dei modelli di IA, riceve anch’essa un’attenzione significativa. OpenAI, in una chiara critica all’AI Act europeo, critica la disposizione che concede ai titolari dei diritti la possibilità di scegliere di non far utilizzare le proprie opere per l’addestramento dell’IA. OpenAI esorta l’amministrazione statunitense a ‘impedire ai paesi meno innovativi di imporre i loro regimi legali alle aziende americane di IA e di rallentare il nostro tasso di progresso’. Questa posizione riflette la convinzione di OpenAI che l’accesso illimitato ai dati sia cruciale per mantenere il vantaggio competitivo degli Stati Uniti nel campo dell’IA.
Google, d’altra parte, chiede ‘leggi sul copyright equilibrate’, e anche leggi sulla privacy che concedano automaticamente un’esenzione per le informazioni disponibili al pubblico. Ciò suggerisce un approccio più sfumato, riconoscendo i diritti dei creatori e riconoscendo al contempo l’importanza dei dati per lo sviluppo dell’IA. Google propone anche una revisione dei ‘brevetti sull’IA concessi per errore’, evidenziando il numero crescente di brevetti statunitensi sull’IA acquisiti da aziende cinesi.
Alimentare il Futuro: Infrastrutture e Fabbisogno Energetico
La pura potenza di calcolo necessaria per addestrare e gestire modelli di IA avanzati richiede una significativa espansione delle infrastrutture e delle risorse energetiche. OpenAI, Anthropic e Google sostengono tutti la semplificazione del processo di autorizzazione per le linee di trasmissione, con l’obiettivo di accelerare la costruzione di infrastrutture energetiche per supportare i nuovi data center di IA.
Anthropic assume una posizione particolarmente audace, chiedendo ulteriori 50 gigawatt di energia negli Stati Uniti, esclusivamente per l’uso dell’IA, entro il 2027. Ciò sottolinea l’enorme fabbisogno energetico del panorama dell’IA in rapida evoluzione e il potenziale dell’IA di diventare un importante motore del consumo energetico.
Sicurezza, Adozione da Parte del Governo e lo Stato Potenziato dall’IA
Le proposte approfondiscono anche l’intersezione tra IA, sicurezza nazionale e operazioni governative. OpenAI propone di accelerare le approvazioni di sicurezza informatica per i migliori strumenti di IA, consentendo alle agenzie governative di testarli e implementarli più facilmente. Suggerisce anche partnership pubblico-private per sviluppare modelli di IA focalizzati sulla sicurezza nazionale che potrebbero non avere un mercato commerciale praticabile, come i modelli progettati per compiti nucleari classificati.
Anthropic fa eco all’appello per procedure di approvvigionamento più rapide per integrare l’IA nelle funzioni governative. In particolare, Anthropic sottolinea anche l’importanza di solidi ruoli di valutazione della sicurezza per il National Institute of Standards and Technology (NIST) e l’U.S. AI Safety Institute.
Google sostiene che le agenzie di sicurezza nazionale dovrebbero essere autorizzate a utilizzare risorse di archiviazione e calcolo commerciali per le loro esigenze di IA. Sostiene inoltre che il governo rilasci i suoi set di dati per l’addestramento commerciale dell’IA e imponga standard di dati aperti e API in diverse implementazioni cloud governative per facilitare ‘approfondimenti basati sull’IA’.
L’Impatto Sociale: Mercati del Lavoro e la Trasformazione Guidata dall’IA
Infine, le proposte toccano le implicazioni sociali più ampie dell’IA, in particolare il suo potenziale impatto sui mercati del lavoro. Anthropic esorta l’amministrazione a monitorare attentamente le tendenze del mercato del lavoro e a prepararsi a significative perturbazioni. Google riconosce analogamente che sono in arrivo cambiamenti, sottolineando la necessità di un più ampio sviluppo delle competenze in materia di IA. Google richiede anche maggiori finanziamenti per la ricerca sull’IA e una politica per garantire che i ricercatori statunitensi abbiano un accesso adeguato alla potenza di calcolo, ai dati e ai modelli.
In sostanza, le proposte all’’AI Action Plan’ dipingono l’immagine di un’industria in un momento cruciale. Pur essendo unite nella loro ambizione di far progredire la tecnologia dell’IA, le principali aziende statunitensi hanno opinioni fondamentalmente diverse su come affrontare le complesse sfide della regolamentazione, della concorrenza internazionale e dell’impatto sociale. I prossimi mesi e anni riveleranno come queste visioni divergenti plasmeranno il futuro dell’IA, non solo negli Stati Uniti ma a livello globale.