L'Histoire qui a fâché OpenAI: Une Plongée

En 2019, Karen Hao, une journaliste chevronnée du MIT Technology Review, a proposé à son rédacteur en chef un article sur OpenAI, une entreprise qui opérait alors largement sous le radar. Ce qui s’est déroulé a été un voyage rempli de rebondissements inattendus, révélant à quel point les ambitions d’OpenAI s’étaient éloignées de ses objectifs initiaux.

Je suis entrée pour la première fois dans les bureaux d’OpenAI le 7 août 2019. Greg Brockman, le CTO de l’entreprise à l’époque, m’a accueilli avec un sourire hésitant, reconnaissant que l’octroi d’un accès aussi étendu était sans précédent pour eux.

Bien qu’OpenAI soit peut-être relativement inconnu du grand public, en tant que journaliste couvrant le paysage en constante évolution de l’intelligence artificielle, je surveillais de près ses développements.

Premiers jours d’OpenAI et tournants

Avant 2019, OpenAI était considéré comme une sorte d’excentrique dans la communauté de la recherche en IA. Son affirmation audacieuse de réaliser l’Artificial General Intelligence (AGI) en une décennie a été accueillie avec scepticisme par beaucoup. Malgré un financement important, l’entreprise manquait de direction claire, et ses efforts de marketing étaient souvent perçus comme surestimant des recherches jugées peu originales par d’autres experts. Néanmoins, OpenAI suscitait également l’envie. En tant qu’organisation à but non lucratif, elle n’a déclaré aucun intérêt pour la commercialisation, créant un environnement unique pour l’exploration intellectuelle, libre des contraintes des pressions financières.

Cependant, au cours des six mois précédant ma visite, une série de changements rapides ont laissé entrevoir un changement important dans la direction d’OpenAI. Le premier signe a été la décision controversée de retenir GPT-2, malgré la publication de ses capacités. Ensuite, il y a eu l’annonce de la nomination de Sam Altman au poste de PDG, suite à son départ de Y Combinator (YC), ainsi que la création d’une structure à “profit plafonné”. Au milieu de ces développements, OpenAI a révélé un partenariat avec Microsoft, accordant au géant de la technologie la priorité dans la commercialisation des technologies d’OpenAI et l’utilisation exclusive des services cloud Microsoft Azure.

Chacune de ces annonces a généré des controverses, des spéculations et une attention croissante, dépassant les limites de l’industrie technologique. Au fur et à mesure que les changements se déroulaient, il était difficile d’en saisir pleinement la signification. Il était cependant évident qu’OpenAI commençait à exercer une influence considérable sur la recherche en IA et sur la façon dont les décideurs politiques comprenaient la technologie. La décision de passer à une entreprise partiellement à but lucratif allait certainement avoir des répercussions considérables sur l’industrie et le gouvernement.

Un soir, encouragée par mon rédacteur en chef, j’ai contacté Jack Clark, le directeur des politiques d’OpenAI, à qui j’avais déjà parlé. J’ai proposé un profil sur OpenAI, sentant que c’était un moment charnière dans l’histoire de l’entreprise. Clark m’a mis en relation avec le responsable de la communication, qui m’a invité à interviewer la direction et à m’intégrer à l’entreprise pendant trois jours.

À l’intérieur d’OpenAI: Mission et Ambition

Brockman et moi avons été rejoints par le scientifique en chef Ilya Sutskever dans une salle de réunion en verre. Assis côte à côte, ils se complétaient dans leurs rôles. Brockman, le codeur et l’implémenteur, semblait désireux de faire une impression positive, tandis que Sutskever, le chercheur et le philosophe, semblait plus détendu et détaché.

J’ai commencé par poser des questions sur la mission d’OpenAI: assurer une AGI bénéfique. Pourquoi investir des milliards dans ce problème plutôt que dans d’autres ?

Brockman, bien versé dans la défense de la position d’OpenAI, a déclaré que l’AGI était cruciale pour résoudre des problèmes complexes qui dépassaient les capacités humaines. Il a cité le changement climatique et la médecine comme exemples, illustrant le potentiel de l’AGI pour analyser de grandes quantités de données et accélérer les progrès dans ces domaines critiques.

Il a raconté l’expérience d’un ami atteint d’une maladie rare, soulignant comment l’AGI pourrait rationaliser les diagnostics et les traitements en connectant efficacement les spécialistes.

J’ai ensuite posé des questions sur la distinction entre AGI et AI.

L’AGI, autrefois un concept de niche, avait gagné du terrain, en grande partie grâce à l’influence d’OpenAI. AGI fait référence à une IA hypothétique qui égale ou dépasse l’intelligence humaine dans la plupart des tâches économiquement intéressantes. Bien que les chercheurs aient fait des progrès, les débats persistaient quant à la possibilité de simuler la conscience humaine.

AI, d’autre part, faisait référence à la fois à la technologie actuelle et aux capacités futures proches, démontrant des applications dans l’atténuation du changement climatique et les soins de santé.

Sutskever a ajouté que l’AGI pourrait résoudre les défis mondiaux en permettant à des ordinateurs intelligents de communiquer et de travailler ensemble plus efficacement que les humains, en contournant les problèmes d’incitation.

Cette déclaration m’a amené à me demander si l’AGI était destiné à remplacer les humains. Brockman a répondu que la technologie devrait servir les personnes et assurer la “liberté économique” tout en maintenant leur qualité de vie.

Brockman a fait valoir que le rôle d’OpenAI n’était pas de déterminer si l’AGI serait construite, mais plutôt d’influencer les circonstances dans lesquelles elle serait créée. Il a souligné que leur mission était de s’assurer que l’AGI profite à toute l’humanité en la construisant et en distribuant ses avantages économiques.

Notre conversation s’est poursuivie en cercles, avec un succès limité dans l’obtention de détails concrets. J’ai tenté une approche différente, en posant des questions sur les inconvénients potentiels de la technologie.

Brockman a cité les deepfakes comme une application négative possible.

J’ai soulevé l’impact environnemental de l’IA elle-même.

Sutskever a reconnu le problème, mais a fait valoir que l’AGI pourrait contrer le coût environnemental. Il a souligné la nécessité de centres de données écologiques.

"Les centres de données sont les plus gros consommateurs d’énergie, d’électricité", a poursuivi Sutskever.

"C’est 2 % au niveau mondial", ai-je proposé.

"Bitcoin n’est-il pas comme 1 % ?" a dit Brockman.

Sutskever dira plus tard: "Je pense qu’il est fort probable qu’il ne faudra pas longtemps avant que toute la surface de la Terre ne soit recouverte de centres de données et de centrales électriques." Il y aurait "un tsunami d’informatique. . . presque comme un phénomène naturel."

Je leur ai contesté le fait qu’OpenAI pariait sur le succès de l’AGI bénéfique pour contrer le réchauffement climatique avant que l’acte même de le faire ne puisse l’exacerber.

Brockman a dit à la hâte: "La façon dont nous le concevons est la suivante: nous sommes sur une rampe de progrès de l’IA. C’est plus grand qu’OpenAI, n’est-ce pas ? C’est le domaine. Et je pense que la société en tire réellement des avantages."

"Le jour où nous avons annoncé l’accord", a-t-il dit, en référence au nouvel investissement de 1 milliard de dollars de Microsoft, "la capitalisation boursière de Microsoft a augmenté de 10 milliards de dollars. Les gens pensent qu’il y a un retour sur investissement positif, même juste sur la technologie à court terme."

La stratégie d’OpenAI était donc assez simple, a-t-il expliqué: suivre ce progrès.

Plus tard ce jour-là, Brockman a réitéré que personne ne savait vraiment à quoi ressemblerait l’AGI, ajoutant que leur tâche était de continuer à avancer, de découvrir la forme de la technologie étape par étape.

Dans les coulisses: Transparence et Contrôle

J’étais initialement censé déjeuner avec les employés à la cafétéria, mais on m’a dit que je devais être à l’extérieur du bureau. Brockman serait mon chaperon.

Ce schéma s’est répété tout au long de ma visite: accès restreint à certaines zones, réunions auxquelles je ne pouvais pas assister et chercheurs jetant un coup d’œil au responsable de la communication pour s’assurer qu’ils ne violaient aucune politique de divulgation. Suite à ma visite, Jack Clark a envoyé un avertissement sévère aux employés sur Slack de ne pas me parler au-delà des conversations autorisées. Le gardien de sécurité a également reçu ma photo, afin qu’il puisse me surveiller si j’apparaissais sans autorisation dans les locaux. Ces comportements contrastaient avec l’engagement d’OpenAI en faveur de la transparence, soulevant des questions sur ce qui était caché.

Au déjeuner et dans les jours qui ont suivi, j’ai interrogé Brockman sur ses motifs pour cofonder OpenAI. Il a déclaré qu’il était devenu obsédé par l’idée de reproduire l’intelligence humaine suite à un article d’Alan Turing. Cela l’a inspiré. Il a codé un jeu de test de Turing et l’a mis en ligne, recueillant quelque 1 500 visites. Cela l’a fait se sentir incroyable. "Je me suis juste rendu compte que c’était le genre de chose que je voulais poursuivre", a-t-il dit.

Il a rejoint OpenAI en tant que cofondateur en 2015, notant qu’il ferait n’importe quoi pour mener à bien l’AGI, même si cela signifiait être un concierge. Lorsqu’il s’est marié quatre ans plus tard, il a organisé une cérémonie civile au bureau d’OpenAI devant un mur de fleurs personnalisé orné de la forme du logo hexagonal du laboratoire. Sutskever a officié.

"Fondamentalement, je veux travailler sur l’AGI pour le reste de ma vie", m’a dit Brockman.

J’ai demandé ce qui le motivait.

Brockman a mentionné les chances de travailler sur une technologie transformatrice au cours de sa vie. Il croyait qu’il était dans une position unique pour apporter cette transformation. "Ce qui m’attire vraiment, ce sont les problèmes qui ne se dérouleront pas de la même manière si je ne participe pas", a-t-il dit.

Il voulait diriger l’AGI et aspirait à la reconnaissance pour ses réalisations. En 2022, il est devenu président d’OpenAI.

Profit, Mission et Compétition

Au cours de nos conversations, Brockman a affirmé que les changements structurels d’OpenAI n’avaient pas modifié sa mission principale. La structure à profit plafonné et les nouveaux investisseurs l’ont améliorée. "Nous avons réussi à attirer ces investisseurs alignés sur la mission qui sont prêts à donner la priorité à la mission plutôt qu’aux rendements. C’est une chose folle", a-t-il dit.

OpenAI avait maintenant les ressources nécessaires pour faire évoluer ses modèles et garder une longueur d’avance sur la concurrence. Ne pas le faire pourrait saper sa mission. C’est cette hypothèse qui a mis en mouvement toutes les actions d’OpenAI et leurs conséquences considérables. Cela a mis un compte à rebours sur chaque avancée de recherche d’OpenAI, basé non pas sur l’échelle de temps d’une délibération minutieuse, mais sur le rythme implacable requis pour franchir la ligne d’arrivée avant tout le monde. Cela a justifié la consommation par OpenAI d’une quantité incommensurable de ressources.

Brockman a souligné l’importance de redistribuer les avantages de l’AGI.

J’ai posé des questions sur les exemples historiques de technologies qui ont réussi à distribuer les avantages au public.

"Eh bien, je pense en fait que - il est en fait intéressant de regarder même Internet comme un exemple", a-t-il dit. "Il y a aussi des problèmes, n’est-ce pas?" a-t-il dit à titre de mise en garde. "Chaque fois que vous avez quelque chose de super transformateur, il ne sera pas facile de comprendre comment maximiser le positif, minimiser le négatif.

"Le feu est un autre exemple", a-t-il ajouté. "Il a aussi de réels inconvénients. Nous devons donc comprendre comment le garder sous contrôle et avoir des normes communes.

"Les voitures sont un bon exemple", a-t-il poursuivi. "Beaucoup de gens ont des voitures, en profitent beaucoup. Elles ont aussi des inconvénients. Elles ont des externalités qui ne sont pas nécessairement bonnes pour le monde", a-t-il terminé avec hésitation.

"Je suppose que je vois juste - la chose que nous voulons pour l’AGI n’est pas si différente des côtés positifs d’Internet, des côtés positifs des voitures, des côtés positifs du feu. La mise en œuvre est très différente, cependant, car c’est un type de technologie très différent."

Ses yeux se sont illuminés avec une nouvelle idée. "Regardez simplement les services publics. Les compagnies d’électricité sont des entités très centralisées qui fournissent des choses de haute qualité à faible coût qui améliorent considérablement la vie des gens."

Brockman semblait une fois de plus peu clair sur la façon dont OpenAI se transformerait en un service public.

Il est revenu à la seule chose qu’il savait avec certitude. OpenAI s’est engagé à redistribuer les avantages de l’AGI et à donner à chacun la liberté économique. "Nous le pensons vraiment", a-t-il dit.

"La façon dont nous le concevons est la suivante: jusqu’à présent, la technologie a été quelque chose qui fait monter tous les bateaux, mais elle a cet effet de concentration réel", a-t-il dit. "L’AGI pourrait être plus extrême. Que se passerait-il si toute la valeur était enfermée dans un seul endroit? C’est la trajectoire sur laquelle nous nous trouvons en tant que société. Et nous n’avons jamais vu cet extrême. Je ne pense pas que ce soit un bon monde. Ce n’est pas un monde que je veux aider à construire."

Retombées et Réaction

En février 2020, j’ai publié mon profil pour MIT Technology Review, révélant un décalage entre l’image publique d’OpenAI et ses pratiques internes. J’ai dit que "Au fil du temps, cela a permis à une compétitivité féroce et à une pression croissante pour toujours plus de financement d’éroder ses idéaux fondateurs de transparence, d’ouverture et de collaboration."

Elon Musk a répondu avec trois tweets:

"OpenAI devrait être plus ouverte imo"

"Je n’ai aucun contrôle et très peu d’informations sur OpenAI. La confiance en Dario pour la sécurité n’est pas élevée", a-t-il dit, en référence à Dario Amodei, le directeur de la recherche.

"Toutes les organisations développant une IA avancée devraient être réglementées, y compris Tesla"

Altman a envoyé un e-mail aux employés d’OpenAI.

"Bien que ce ne soit certainement pas catastrophique, c’était clairement mauvais", a-t-il écrit à propos de l’article du MIT Technology Review.

Il a écrit que c’était "une critique juste", que l’article avait identifié un décalage entre la perception d’OpenAI et sa réalité. Il suggérerait qu’Amodei et Musk se rencontrent pour résoudre les critiques de Musk. Pour éviter tout doute, le travail d’Amodei et la sécurité de l’IA étaient essentiels à la mission, a-t-il écrit. "Je pense que nous devrions à un moment donné dans le futur trouver un moyen de défendre publiquement notre équipe (mais ne pas donner à la presse le combat public qu’elle adorerait en ce moment)."

Après l’article, OpenAI n’a plus voulu me parler pendant trois ans.