Die Geschichte, die OpenAI erzürnte – Eine Analyse

OpenAI’s frühe Tage und der Wandel der Zeiten

Vor 2019 galt OpenAI in der KI-Forschungsgemeinschaft als eine Art Außenseiter. Die kühne Behauptung, innerhalb eines Jahrzehnts eine Artificial General Intelligence (AGI) zu erreichen, stieß bei vielen auf Skepsis. Trotz erheblicher finanzieller Mittel mangelte es dem Unternehmen an einer klaren Richtung, und seine Marketingbemühungen wurden oft als Übertreibung von Forschungsergebnissen wahrgenommen, die von anderen Experten als nicht originell angesehen wurden. Nichtsdestotrotz zog OpenAI auch Neid auf sich. Als gemeinnützige Organisation erklärte sie kein Interesse an der Kommerzialisierung und schuf so ein einzigartiges Umfeld für intellektuelle Erkundung, das frei von den Zwängen des finanziellen Drucks war.

In den sechs Monaten vor meinem Besuch deutete eine Reihe von schnellen Veränderungen auf eine bedeutende Richtungsänderung bei OpenAI hin. Das erste Anzeichen war die umstrittene Entscheidung, GPT-2 zurückzuhalten, obwohl seine Fähigkeiten öffentlich gemacht wurden. Als Nächstes wurde die Ernennung von Sam Altman zum CEO nach seinem Ausscheiden aus Y Combinator (YC) zusammen mit der Schaffung einer "Capped-Profit"-Struktur bekannt gegeben. Im Zuge dieser Entwicklungen enthüllte OpenAI eine Partnerschaft mit Microsoft, die dem Technologiegiganten Vorrang bei der Kommerzialisierung der Technologien von OpenAI und die exklusive Nutzung der Microsoft Azure-Cloud-Dienste einräumte.

Jede dieser Ankündigungen löste Kontroversen, Spekulationen und zunehmende Aufmerksamkeit aus, die über die Grenzen der Technologiebranche hinausgingen. Während sich die Veränderungen vollzogen, war es schwierig, ihre Bedeutung vollständig zu erfassen. Es war jedoch offensichtlich, dass OpenAI begann, einen erheblichen Einfluss auf die KI-Forschung und die Art und Weise auszuüben, wie politische Entscheidungsträger die Technologie verstanden. Die Entscheidung, in ein teilweise gewinnorientiertes Unternehmen überzugehen, würde sich mit Sicherheit weitreichend auf Industrie und Regierung auswirken.

Eines Abends, ermutigt von meinem Redakteur, wandte ich mich an Jack Clark, den Policy Director von OpenAI, mit dem ich zuvor gesprochen hatte. Ich schlug ein Profil über OpenAI vor, da ich spürte, dass dies ein entscheidender Moment in der Geschichte des Unternehmens war. Clark stellte den Kontakt zum Kommunikationschef her, der eine Einladung zu Interviews mit der Führungsebene und zur dreitägigen Einbettung in das Unternehmen aussprach.

Im Inneren von OpenAI: Mission und Ambition

Brockman und ich wurden vom Chefwissenschaftler Ilya Sutskever in einem gläsernen Besprechungsraum empfangen. Seite an Seite sitzend, ergänzten sie sich in ihren Rollen. Brockman, der Programmierer und Umsetzer, schien eifrig darauf bedacht zu sein, einen positiven Eindruck zu hinterlassen, während Sutskever, der Forscher und Philosoph, entspannter und distanzierter wirkte.

Ich begann mit der Frage nach der Mission von OpenAI: die Sicherstellung einer vorteilhaften AGI. Warum Milliarden in dieses Problem investieren und nicht in andere?

Brockman, der in der Verteidigung der Position von OpenAI erfahren war, erklärte, dass AGI entscheidend sei, um komplexe Probleme zu lösen, die über die menschlichen Fähigkeiten hinausgehen. Er nannte den Klimawandel und die Medizin als Beispiele, um das Potenzial von AGI zu veranschaulichen, riesige Datenmengen zu analysieren und Fortschritte in diesen kritischen Bereichen zu beschleunigen.

Er erzählte von den Erfahrungen eines Freundes mit einer seltenen Krankheit und hob hervor, wie AGI die Diagnose und Behandlung durch die effiziente Vernetzung von Spezialisten rationalisieren könnte.

Ich fragte dann nach dem Unterschied zwischen AGI und KI.

AGI, einst ein Nischenkonzept, hatte vor allem aufgrund des Einflusses von OpenAI an Bedeutung gewonnen. AGI bezieht sich auf eine hypothetische KI, die die menschliche Intelligenz in den meisten wirtschaftlich wertvollen Aufgaben erreicht oder übertrifft. Während die Forscher Fortschritte gemacht hatten, gab es weiterhin Debatten über die Möglichkeit, das menschliche Bewusstsein zu simulieren.

KI hingegen bezog sich sowohl auf die aktuelle Technologie als auch auf die Fähigkeiten der nahen Zukunft und demonstrierte Anwendungen in den Bereichen Klimaschutz und Gesundheitswesen.

Sutskever fügte hinzu, dass AGI globale Herausforderungen lösen könnte, indem es intelligenten Computern ermöglicht, effizienter als Menschen zu kommunizieren und zusammenzuarbeiten und dabei Anreizprobleme zu umgehen.

Diese Aussage veranlasste mich zu der Frage, ob AGI dazu bestimmt sei, den Menschen zu ersetzen. Brockman antwortete, dass Technologie den Menschen dienen und ihre "wirtschaftliche Freiheit" gewährleisten sollte, während sie ihre Lebensqualität aufrechterhalten.

Brockman argumentierte, dass es nicht die Aufgabe von OpenAI sei, zu bestimmen, ob AGI gebaut wird, sondern die Umstände zu beeinflussen, unter denen es geschaffen wird. Er betonte, dass es ihre Mission sei, sicherzustellen, dass AGI der gesamten Menschheit zugute kommt, indem sie es baut und seine wirtschaftlichen Vorteile verteilt.

Unser Gespräch drehte sich im Kreis, wobei es nur begrenzt gelang, konkrete Details zu erhalten. Ich versuchte einen anderen Ansatz und fragte nach den potenziellen Schattenseiten der Technologie.

Brockman nannte Deepfakes als eine mögliche negative Anwendung.

Ich sprach die Umweltauswirkungen von KI selbst an.

Sutskever räumte das Problem ein, argumentierte aber, dass AGI die Umweltkosten ausgleichen könnte. Er betonte die Notwendigkeit grüner Rechenzentren.

"Rechenzentren sind der größte Energieverbraucher, der Stromverbraucher", fuhr Sutskever fort.

"Es sind 2 Prozent weltweit", brachte ich ein.

"Ist Bitcoin nicht wie 1 Prozent?", sagte Brockman.

Sutskever sollte später sagen: "Ich denke, es ist ziemlich wahrscheinlich, dass es nicht lange dauern wird, bis die gesamte Oberfläche der Erde mit Rechenzentren und Kraftwerken bedeckt ist." Es würde "ein Tsunami des Rechnens . . . fast wie ein Naturphänomen" geben.

Ich forderte sie heraus, dass OpenAI darauf spekuliere, dass es erfolgreich eine vorteilhafte AGI erreichen würde, um die globale Erwärmung zu konterkarieren, bevor der Akt dies zu tun die Situation verschlimmern könnte.

Brockman sagte hastig: "Wir denken darüber folgendermaßen: Wir befinden uns auf einer Rampe des KI-Fortschritts. Das ist größer als OpenAI, oder? Es ist das Feld. Und ich denke, die Gesellschaft profitiert tatsächlich davon."

"An dem Tag, an dem wir den Deal bekannt gegeben haben", sagte er und bezog sich auf Microsofts neue Investition von 1 Milliarde Dollar, "stieg die Marktkapitalisierung von Microsoft um 10 Milliarden Dollar. Die Leute glauben, dass es selbst bei kurzfristiger Technologie einen positiven ROI gibt."

Die Strategie von OpenAI war also ganz einfach, erklärte er: mit diesem Fortschritt Schritt zu halten.

Später an diesem Tag wiederholte Brockman, dass niemand wirklich wusste, wie AGI aussehen würde, und fügte hinzu, dass es ihre Aufgabe sei, weiter voranzutreiben, um die Form der Technologie Schritt für Schritt zu enthüllen.

Hinter den Kulissen: Transparenz und Kontrolle

Ursprünglich war geplant, dass ich mit Mitarbeitern in der Cafeteria zu Mittag esse, aber mir wurde gesagt, dass ich mich außerhalb des Büros aufhalten müsse. Brockman würde mein Betreuer sein.

Dieses Muster wiederholte sich während meines gesamten Besuchs: eingeschränkter Zugang zu bestimmten Bereichen, Besprechungen, an denen ich nicht teilnehmen konnte, und Forscher, die zum Kommunikationschef schielten, um sicherzustellen, dass sie keine Offenlegungsrichtlinien verletzten. Nach meinem Besuch schickte Jack Clark eine strenge Warnung an die Mitarbeiter auf Slack, wonach sie nicht über genehmigte Gespräche hinaus mit mir sprechen sollten. Der Wachmann erhielt auch mein Foto, damit er nach mir Ausschau halten konnte, wenn ich unbefugt auf dem Gelände auftauchen sollte. Dieses Verhalten stand im Widerspruch zum Bekenntnis von OpenAI zur Transparenz und warf Fragen darüber auf, was verborgen wurde.

Beim Mittagessen und in den Tagen danach befragte ich Brockman nach seinen Motiven für die Mitbegründung von OpenAI. Er erklärte, dass er von der Idee der Replikation menschlicher Intelligenz besessen sei, nachdem er ein Papier von Alan Turing gelesen hatte. Es inspirierte ihn. Er programmierte ein Turing-Test-Spiel und stellte es online, wodurch er etwa 1.500 Aufrufe erhielt. Es gab ihm ein tolles Gefühl. "Ich habe einfach erkannt, dass das die Art von Dingen war, die ich verfolgen wollte", sagte er.

Er trat OpenAI 2015 als Mitbegründer bei und merkte an, dass er alles tun würde, um AGI zu verwirklichen, selbst wenn es bedeuten würde, ein Hausmeister zu sein. Als er vier Jahre später heiratete, veranstaltete er eine standesamtliche Zeremonie im Büro von OpenAI vor einer maßgefertigten Blumenwand in der Form des sechseckigen Logos des Labors. Sutskever amtierte.

"Grundsätzlich möchte ich den Rest meines Lebens an AGI arbeiten", sagte mir Brockman.

Ich erkundigte mich, was ihn motivierte.

Brockman erwähnte die Chance, während seines Lebens an einer transformativen Technologie zu arbeiten. Er glaubte, sich in einer einzigartigen Position zu befinden, um diese Transformation herbeizuführen. "Was mich wirklich anzieht, sind Probleme, die sich nicht auf die gleiche Weise abspielen werden, wenn ich nicht daran teilnehme", sagte er.

Er wollte AGI anführen und sehnte sich nach Anerkennung für seine Leistungen. Im Jahr 2022 wurde er Präsident von OpenAI.

Gewinn, Mission und Wettbewerb

Während unserer Gespräche betonte Brockman, dass die strukturellen Veränderungen von OpenAI nichts an seiner Kernmission geändert hätten. Die "Capped-Profit"-Struktur und neue Investoren hätten sie verbessert. "Wir haben es geschafft, diese missionsorientierten Investoren zu bekommen, die bereit sind, die Mission über die Rendite zu stellen. Das ist verrückt", sagte er.

OpenAI verfügte nun über die Ressourcen, um seine Modelle zu skalieren und der Konkurrenz einen Schritt voraus zu sein. Dies nicht zu tun, könnte seine Mission untergraben. Es war diese Annahme, die alle Aktionen von OpenAI und ihre weitreichenden Folgen in Gang setzte. Sie setzte einen Countdown für jeden der Forschungsfortschritte von OpenAI in Gang, der nicht auf dem Zeitrahmen sorgfältiger Überlegungen basierte, sondern auf dem unerbittlichen Tempo, das erforderlich war, um die Ziellinie vor allen anderen zu überqueren. Sie rechtfertigte den Verbrauch einer unvorstellbaren Menge an Ressourcen durch OpenAI.

Brockman betonte, wie wichtig es sei, die Vorteile von AGI umzuverteilen.

Ich fragte nach historischen Beispielen von Technologien, die die Vorteile erfolgreich an die Öffentlichkeit verteilten.

"Nun, ich denke tatsächlich, dass es - es ist eigentlich interessant, sogar das Internet als Beispiel zu betrachten", sagte er. "Es gibt auch Probleme, oder?", sagte er als Einschränkung. "Immer wenn man etwas super Transformatives hat, wird es nicht einfach sein, herauszufinden, wie man das Positive maximiert und das Negative minimiert.”

"Feuer ist ein weiteres Beispiel", fügte er hinzu. "Es hat auch einige echte Nachteile. Wir müssen also herausfinden, wie wir es unter Kontrolle halten und gemeinsame Standards haben.”

"Autos sind ein gutes Beispiel", fuhr er fort. "Viele Leute haben Autos, viele Leute profitieren davon. Sie haben auch einige Nachteile. Sie haben einige Externalitäten, die nicht unbedingt gut für die Welt sind", schloss er zögerlich.

"Ich denke nur - das, was wir uns für AGI wünschen, unterscheidet sich nicht so sehr von den positiven Seiten des Internets, den positiven Seiten von Autos, den positiven Seiten von Feuer. Die Umsetzung ist jedoch sehr unterschiedlich, weil es sich um eine ganz andere Art von Technologie handelt.”

Seine Augen leuchteten bei einer neuen Idee auf. "Schauen Sie sich einfach die Versorgungsunternehmen an. Energieversorgungsunternehmen, Elektrizitätsunternehmen sind sehr zentralisierte Einrichtungen, die kostengünstige, qualitativ hochwertige Dinge anbieten, die das Leben der Menschen sinnvoll verbessern.”

Brockman schien sich immer noch nicht darüber im Klaren zu sein, wie sich OpenAI in ein Versorgungsunternehmen verwandeln würde.

Er kehrte zu dem einen zurück, was er mit Sicherheit wusste. OpenAI hatte sich verpflichtet, die Vorteile von AGI umzuverteilen und jedem wirtschaftliche Freiheit zu ermöglichen. "Das meinen wir wirklich so", sagte er.

"Wir denken darüber so: Technologie war bisher etwas, das alle Boote anhebt, aber sie hat diesen realen Konzentrationseffekt", sagte er. "AGI könnte noch extremer sein. Was wäre, wenn der gesamte Wert an einem Ort eingeschlossen wäre? Das ist die Richtung, in die wir uns als Gesellschaft bewegen. Und wir haben dieses Extrem noch nie gesehen. Ich glaube nicht, dass das eine gute Welt ist. Das ist keine Welt, an deren Aufbau ich mitwirken möchte.”

Nachwirkungen und Reaktion

Im Februar 2020 veröffentlichte ich mein Profil für die MIT Technology Review und enthüllte eine Diskrepanz zwischen dem öffentlichen Image von OpenAI und seinen internen Praktiken. Ich sagte, dass "es im Laufe der Zeit einem erbitterten Wettbewerb und einem zunehmenden Druck nach immer mehr Finanzierung ermöglicht hat, seine Gründungsideale von Transparenz, Offenheit und Zusammenarbeit zu untergraben."

Elon Musk antwortete mit drei Tweets:

"OpenAI sollte meiner Meinung nach offener sein”

"Ich habe keine Kontrolle und nur sehr begrenzten Einblick in OpenAI. Das Vertrauen in Dario in Bezug auf die Sicherheit ist nicht hoch", sagte er und bezog sich auf Dario Amodei, den Leiter der Forschung.

"Alle Organisationen, die fortschrittliche KI entwickeln, sollten reguliert werden, einschließlich Tesla”

Altman schickte eine E-Mail an die Mitarbeiter von OpenAI.

"Obwohl es definitiv nicht katastrophal war, war es eindeutig schlecht", schrieb er über den Artikel der MIT Technology Review.

Er schrieb, dass es "eine faire Kritik" sei, dass das Stück eine Diskrepanz zwischen der Wahrnehmung von OpenAI und seiner Realität aufgezeigt habe. Er schlug vor, dass sich Amodei und Musk treffen sollten, um Musks Kritik auszuräumen. Um jeden Zweifel auszuschließen, seien Amodeis Arbeit und die KI-Sicherheit entscheidend für die Mission, schrieb er. "Ich denke, wir sollten in Zukunft irgendwann einen Weg finden, unser Team öffentlich zu verteidigen (aber der Presse nicht den öffentlichen Kampf liefern, den sie jetzt lieben würde)."

Nach dem Artikel sprach OpenAI drei Jahre lang nicht mehr mit mir.