W 2019 roku Karen Hao, doświadczona reporterka MIT Technology Review, zaproponowała swojemu redaktorowi artykuł o OpenAI, firmie działającej wówczas w dużej mierze poza radarem opinii publicznej. To, co się wydarzyło, było podróżą pełną nieoczekiwanych zwrotów akcji, ujawniającą zakres, w jakim ambicje OpenAI odbiegły od jego początkowych celów.
Po raz pierwszy postawiłam stopę w biurach OpenAI 7 sierpnia 2019 roku. Greg Brockman, ówczesny CTO firmy, powitał mnie nieśmiałym uśmiechem, przyznając, że udzielenie tak szerokiego dostępu jest dla nich bezprecedensowe.
Chociaż OpenAI mogło być stosunkowo nieznane ogółowi społeczeństwa, ja, jako reporterka zajmująca się stale zmieniającym się krajobrazem sztucznej inteligencji, uważnie śledziłam jego rozwój.
Początki OpenAI i zmieniające się trendy
Przed 2019 rokiem OpenAI było uważane za swego rodzaju odszczepieńca w środowisku badań nad sztuczną inteligencją. Jego śmiałe twierdzenie o osiągnięciu Artificial General Intelligence (AGI) w ciągu dekady spotkało się ze sceptycyzmem wielu osób. Pomimo znacznego finansowania, firmie brakowało jasnego kierunku, a jej wysiłki marketingowe były często postrzegane jako nadmierne nagłaśnianie badań uznawanych za nieoryginalne przez innych ekspertów. Niemniej jednak OpenAI wzbudzało również zazdrość. Jako organizacja non-profit, nie deklarowała zainteresowania komercjalizacją, tworząc unikalne środowisko dla intelektualnej eksploracji wolne od ograniczeń presji finansowych.
Jednak w ciągu sześciu miesięcy poprzedzających moją wizytę seria szybkich zmian wskazywała na znaczącą zmianę w kierunku OpenAI. Pierwszym znakiem była kontrowersyjna decyzja o wstrzymaniu GPT-2, pomimo nagłośnienia jego możliwości. Następnie ogłoszono mianowanie Sama Altmana na stanowisko CEO po jego odejściu z Y Combinator (YC), wraz z utworzeniem struktury "capped-profit". Wśród tych wydarzeń OpenAI ujawniło partnerstwo z Microsoftem, przyznając gigantowi technologicznemu priorytet w komercjalizacji technologii OpenAI i wyłączne korzystanie z usług chmurowych Microsoft Azure.
Każde z tych ogłoszeń wywoływało kontrowersje, spekulacje i rosnącą uwagę, wykraczając poza granice branży technologicznej. W miarę rozwoju zmian trudno było w pełni pojąć ich znaczenie. Oczywiste było jednak, że OpenAI zaczyna wywierać znaczny wpływ na badania nad sztuczną inteligencją i sposób, w jaki decydenci rozumieją tę technologię. Decyzja o przejściu na częściowo dochodowy model biznesowy z pewnością będzie miała szerokie reperkusje w przemyśle i rządzie.
Pewnego wieczoru, zachęcona przez mojego redaktora, skontaktowałam się z Jackiem Clarkiem, dyrektorem ds. polityki OpenAI, z którym wcześniej rozmawiałam. Zaproponowałam napisanie profilu OpenAI, wyczuwając, że jest to kluczowy moment w historii firmy. Clark skontaktował mnie z szefem działu komunikacji, który wystosował zaproszenie na wywiady z kierownictwem i pobyt w firmie przez trzy dni.
Wewnątrz OpenAI: Misja i Ambicje
Do Brockmana i mnie dołączył główny naukowiec Ilya Sutskever w szklanym pokoju konferencyjnym. Siedząc obok siebie, uzupełniali się wzajemnie. Brockman, programista i realizator, wydawał się chętny do zrobienia pozytywnego wrażenia, podczas gdy Sutskever, badacz i filozof, wydawał się bardziej zrelaksowany i oderwany.
Zaczęłam od pytania o misję OpenAI: zapewnienie korzystnego AGI. Dlaczego inwestować miliardy w ten problem ponad innymi?
Brockman, biegły w obronie stanowiska OpenAI, stwierdził, że AGI jest kluczowe dla rozwiązywania złożonych problemów wykraczających poza ludzkie możliwości. Wymienił zmiany klimatyczne i medycynę jako przykłady, ilustrując potencjał AGI w analizowaniu ogromnych ilości danych i przyspieszaniu postępów w tych krytycznych obszarach.
Opowiedział o doświadczeniach przyjaciela z rzadkim zaburzeniem, podkreślając, w jaki sposób AGI może usprawnić diagnostykę i leczenie poprzez efektywne łączenie specjalistów.
Następnie zapytałam o rozróżnienie między AGI a AI.
AGI, niegdyś niszowa koncepcja, zyskało popularność, głównie dzięki wpływom OpenAI. AGI odnosi się do hipotetycznej sztucznej inteligencji, która dorównuje lub przewyższa inteligencję ludzką w większości ekonomicznie wartościowych zadań. Chociaż naukowcy poczynili postępy, debaty na temat możliwości symulowania ludzkiej świadomości trwały nadal.
AI, z drugiej strony, odnosiło się zarówno do obecnej technologii, jak i do możliwości w bliskiej przyszłości, demonstrując zastosowania w łagodzeniu zmian klimatycznych i opiece zdrowotnej.
Sutskever dodał, że AGI może rozwiązywać globalne wyzwania, umożliwiając inteligentnym komputerom komunikowanie się i współpracę wydajniej niż ludzie, omijając problemy z zachętami.
To stwierdzenie skłoniło mnie do pytania, czy AGI ma zastąpić ludzi. Brockman odpowiedział, że technologia powinna służyć ludziom i zapewniać "wolność ekonomiczną", przy jednoczesnym zachowaniu ich jakości życia.
Brockman argumentował, że rolą OpenAI nie jest ustalanie, czy AGI zostanie zbudowane, ale raczej wpływanie na okoliczności, w jakich zostanie stworzone. Podkreślił, że ich misją jest zapewnienie, aby AGI przynosiło korzyści całej ludzkości poprzez jego budowanie i dystrybucję korzyści ekonomicznych.
Nasza rozmowa toczyła się w kółko, z ograniczonym sukcesem w uzyskiwaniu konkretnych szczegółów. Spróbowałam innego podejścia, pytając o potencjalne wady tej technologii.
Brockman wymienił deepfakes jako możliwe negatywne zastosowanie.
Poruszyłam kwestię wpływu AI na środowisko.
Sutskever uznał problem, ale argumentował, że AGI może przeciwdziałać kosztom środowiskowym. Podkreślił potrzebę zielonych centrów danych.
"Centra danych są największym konsumentem energii, energii elektrycznej" - kontynuował Sutskever.
"To 2 procent globalnie" - zaproponowałam.
"Czy Bitcoin nie ma około 1 procenta?" - zapytał Brockman.
Sutskever powiedział później: "Myślę, że jest całkiem prawdopodobne, że nie zajmie to zbyt wiele czasu, zanim cała powierzchnia Ziemi zostanie pokryta centrami danych i elektrowniami." Nastąpi "tsunami obliczeniowe . . . prawie jak naturalne zjawisko."
Zakwestionowałam, że OpenAI obstawia, że z powodzeniem osiągnie korzystne AGI, aby przeciwdziałać globalnemu ociepleniu, zanim sam akt robienia tego może je pogorszyć.
Brockman pośpiesznie powiedział: "Sposób, w jaki o tym myślimy, jest następujący: jesteśmy na rampie postępu AI. To jest większe niż OpenAI, prawda? To jest dziedzina. I myślę, że społeczeństwo faktycznie czerpie z tego korzyści."
"W dniu, w którym ogłosiliśmy umowę" - powiedział, odnosząc się do nowej inwestycji Microsoftu w wysokości 1 miliarda dolarów - "kapitalizacja rynkowa Microsoftu wzrosła o 10 miliardów dolarów. Ludzie wierzą, że istnieje pozytywny zwrot z inwestycji, nawet w przypadku krótkoterminowej technologii."
Strategia OpenAI była zatem dość prosta, wyjaśnił: nadążać za tym postępem.
Później tego samego dnia Brockman powtórzył, że nikt tak naprawdę nie wie, jak będzie wyglądać AGI, dodając, że ich zadaniem jest parcie do przodu, aby krok po kroku odkrywać kształt tej technologii.
Za kulisami: Przejrzystość i Kontrola
Pierwotnie miałam zjeść lunch z pracownikami w stołówce, ale powiedziano mi, że muszę być poza biurem. Brockman miał być moim opiekunem.
Ten schemat powtarzał się podczas mojej wizyty: ograniczony dostęp do niektórych obszarów, spotkania, w których nie mogłam uczestniczyć, i badacze spoglądający na szefa działu komunikacji, aby upewnić się, że nie naruszają żadnych zasad ujawniania informacji. Po mojej wizycie Jack Clark wysłał stanowcze ostrzeżenie do pracowników na Slacku, aby nie rozmawiali ze mną poza zatwierdzonymi rozmowami. Strażnik otrzymał również moje zdjęcie, aby mógł mnie wypatrywać, jeśli pojawię się na terenie bez zgody. Zachowania te kontrastowały z zaangażowaniem OpenAI w przejrzystość, rodząc pytania o to, co jest ukrywane.
Podczas lunchu i w kolejnych dniach pytałam Brockmana o jego motywy współzałożycielskie OpenAI. Stwierdził, że obsesję na punkcie idei replikacji ludzkiej inteligencji nabawił się po przeczytaniu artykułu Alana Turinga. To go zainspirowało. Zaprogramował grę w test Turinga i umieścił ją w Internecie, zdobywając około 1500 wyświetleń. To sprawiło, że poczuł się niesamowicie. "Po prostu zdałem sobie sprawę, że to jest to, czym chciałem się zajmować" - powiedział.
Dołączył do OpenAI jako współzałożyciel w 2015 roku, zauważając, że zrobiłby wszystko, aby doprowadzić AGI do skutku, nawet gdyby miał być woźnym. Kiedy ożenił się cztery lata później, zorganizował ceremonię cywilną w biurze OpenAI przed ścianą z kwiatów z niestandardowym logo labu w kształcie sześciokąta. Sutskever udzielił ślubu.
"Zasadniczo chcę pracować nad AGI do końca życia" - powiedział mi Brockman.
Zapytałam, co go motywuje.
Brockman wspomniał o szansach pracy nad transformatywną technologią w ciągu swojego życia. Uważał, że jest w wyjątkowej pozycji, aby doprowadzić do tej transformacji. "To, co mnie naprawdę pociąga, to problemy, które nie rozegrają się w ten sam sposób, jeśli nie wezmę w nich udziału" - powiedział.
Chciał przewodzić AGI i pragnął uznania za swoje osiągnięcia. W 2022 roku został prezesem OpenAI.
Zysk, Misja i Konkurencja
Podczas naszych rozmów Brockman zapewniał, że zmiany strukturalne OpenAI nie zmieniły jego głównej misji. Struktura z ograniczonym zyskiem i nowi inwestorzy ją wzmocnili. "Udało nam się pozyskać tych inwestorów, którzy są zgodni z misją i są skłonni przedkładać misję nad zwroty. To szaleństwo" - powiedział.
OpenAI miało teraz zasoby, aby skalować swoje modele i wyprzedzać konkurencję. Niezrobienie tego mogłoby podważyć jego misję. To założenie wprawiło w ruch wszystkie działania OpenAI i ich daleko idące konsekwencje. Nałożyło tykający zegar na każdy postęp w badaniach OpenAI, oparty nie na skali czasowej ostrożnych rozważań, ale na bezlitosnym tempie wymaganym do przekroczenia linii mety przed kimkolwiek innym. To usprawiedliwiało konsumpcję przez OpenAI niewyobrażalnej ilości zasobów.
Brockman podkreślił znaczenie redystrybucji korzyści płynących z AGI.
Zapytałam o historyczne przykłady technologii, które z powodzeniem rozpowszechniały korzyści dla społeczeństwa.
"Cóż, myślę, że warto przyjrzeć się nawet Internetowi jako przykładowi" - powiedział. "Są też problemy, prawda?" - powiedział jako zastrzeżenie. "Za każdym razem, gdy masz coś super transformatywnego, nie będzie łatwo wymyślić, jak zmaksymalizować pozytywne, zminimalizować negatywne.
"Ogień to kolejny przykład" - dodał. "Ma też pewne wady. Musimy więc wymyślić, jak utrzymać go pod kontrolą i mieć wspólne standardy.
"Samochody są dobrym przykładem" - kontynuował. "Wiele osób ma samochody, przynoszą one korzyści wielu osobom. Mają też pewne wady. Mają pewne efekty zewnętrzne, które niekoniecznie są dobre dla świata" - zakończył niepewnie.
"Chyba po prostu postrzegam, że to, czego chcemy dla AGI, nie różni się zbytnio od pozytywnych stron Internetu, pozytywnych stron samochodów, pozytywnych stron ognia. Wdrożenie jest jednak bardzo różne, ponieważ jest to zupełnie inny rodzaj technologii."
Jego oczy rozbłysły nowym pomysłem. "Spójrz tylko na media. Firmy energetyczne, firmy elektryczne są bardzo scentralizowanymi podmiotami, które zapewniają tanie, wysokiej jakości rzeczy, które znacząco poprawiają życie ludzi."
Brockman wydawał się po raz kolejny niejasny, jak OpenAI przekształci się w narzędzie.
Wrócił do jednej rzeczy, której był pewien. OpenAI jest zaangażowane w redystrybucję korzyści płynących z AGI i zapewnienie każdemu wolności ekonomicznej. "Mamy to naprawdę na myśli" - powiedział.
"Sposób, w jaki o tym myślimy, jest następujący: technologia do tej pory była czymś, co podnosi wszystkie łodzie, ale ma ten prawdziwy efekt koncentracji" - powiedział. "AGI może być bardziej ekstremalne. Co, jeśli cała wartość zostanie zamknięta w jednym miejscu? Taka jest trajektoria, w której znajdujemy się jako społeczeństwo. I nigdy nie widzieliśmy tego ekstremum. Nie sądzę, że to dobry świat. To nie jest świat, który chcę pomagać budować."
Następstwa i Reakcja
W lutym 2020 roku opublikowałam swój profil dla MIT Technology Review, ujawniając rozbieżność między publicznym wizerunkiem OpenAI a jego wewnętrznymi praktykami. Powiedziałam, że "z czasem pozwoliła na zaciętą konkurencję i rosnącą presję na uzyskanie coraz większego finansowania, co podważyło jej podstawowe ideały przejrzystości, otwartości i współpracy."
Elon Musk odpowiedział trzema tweetami:
"OpenAI powinno być bardziej otwarte imo"
"Nie mam kontroli i tylko bardzo ograniczony wgląd w OpenAI. Zaufanie do Dario w kwestii bezpieczeństwa nie jest wysokie" - powiedział, odnosząc się do Dario Amodei, dyrektora ds. badań.
"Wszystkie organizacje rozwijające zaawansowaną sztuczną inteligencję powinny być regulowane, w tym Tesla"
Altman wysłał e-mail do pracowników OpenAI.
"Chociaż na pewno nie była to katastrofa, to była wyraźnie zła" - napisał o artykule MIT Technology Review.
Napisał, że była to "uczciwa krytyka", że artykuł zidentyfikował rozłączenie między postrzeganiem OpenAI a jego rzeczywistością. Zasugerował, aby Amodei i Musk spotkali się, aby opracować krytykę Muska. Aby nie było żadnych wątpliwości, praca Amodeiego i bezpieczeństwo AI miały kluczowe znaczenie dla misji, napisał. "Myślę, że w pewnym momencie w przyszłości powinniśmy znaleźć sposób, aby publicznie bronić naszego zespołu (ale nie dawać prasie publicznej walki, którą by pokochali właśnie teraz)."
Po artykule OpenAI przez trzy lata nie chciało ze mną rozmawiać.