En 2019, Karen Hao, una experimentada reportera del MIT Technology Review, propuso a su editor una historia sobre OpenAI, una compañía que entonces operaba en gran medida bajo el radar. Lo que se desarrolló fue un viaje lleno de giros inesperados, revelando hasta qué punto las ambiciones de OpenAI se habían alejado de sus objetivos iniciales.
Pisé por primera vez las oficinas de OpenAI el 7 de agosto de 2019. Greg Brockman, el CTO de la compañía en ese momento, me saludó con una sonrisa vacilante, reconociendo que conceder un acceso tan extenso era algo sin precedentes para ellos.
Si bien OpenAI podría haber sido un desconocido relativo para el público en general, yo, como reportera que cubre el panorama en constante evolución de la inteligencia artificial, había estado siguiendo de cerca sus desarrollos.
Los Primeros Días de OpenAI y las Mareas Cambiantes
Antes de 2019, OpenAI era considerado algo así como un valor atípico en la comunidad de investigación de IA. Su audaz afirmación de lograr la Inteligencia Artificial General (AGI) en una década fue recibida con escepticismo por muchos. A pesar de la importante financiación, la compañía carecía de una dirección clara y sus esfuerzos de marketing a menudo se percibían como exageraciones de investigaciones consideradas poco originales por otros expertos. No obstante, OpenAI también atrajo la envidia. Como organización sin fines de lucro, declaró no tener interés en la comercialización, creando un entorno único para la exploración intelectual libre de las limitaciones de las presiones financieras.
Sin embargo, en los seis meses anteriores a mi visita, una serie de cambios rápidos insinuaron un cambio significativo en la dirección de OpenAI. El primer signo fue la polémica decisión de retener GPT-2, a pesar de publicitar sus capacidades. A continuación, se anunció el nombramiento de Sam Altman como CEO, tras su salida de Y Combinator (YC), junto con la creación de una estructura de “beneficio limitado”. En medio de estos desarrollos, OpenAI reveló una asociación con Microsoft, otorgando al gigante tecnológico prioridad en la comercialización de las tecnologías de OpenAI y el uso exclusivo de los servicios en la nube de Microsoft Azure.
Cada uno de estos anuncios generó controversia, especulación y creciente atención, llegando más allá de los límites de la industria tecnológica. A medida que se desarrollaban los cambios, era difícil comprender plenamente su significado. Sin embargo, era evidente que OpenAI estaba empezando a ejercer una influencia considerable sobre la investigación de la IA y la forma en que los responsables políticos entendían la tecnología. La decisión de pasar a ser una empresa parcialmente con fines de lucro seguramente tendría amplias repercusiones en la industria y el gobierno.
Una noche, animada por mi editor, me puse en contacto con Jack Clark, director de políticas de OpenAI, con quien había hablado anteriormente. Propuse un perfil sobre OpenAI, sintiendo que era un momento crucial en la historia de la compañía. Clark me conectó con el jefe de comunicaciones, quien me extendió una invitación para entrevistar a los líderes e integrarme en la compañía durante tres días.
Dentro de OpenAI: Misión y Ambición
Brockman y yo fuimos acompañados por el jefe científico Ilya Sutskever en una sala de reuniones de cristal. Sentados uno al lado del otro, complementaban los roles de cada uno. Brockman, el codificador e implementador, parecía ansioso por causar una impresión positiva, mientras que Sutskever, el investigador y filósofo, parecía más relajado y distante.
Empecé preguntando por la misión de OpenAI: garantizar una AGI beneficiosa. ¿Por qué invertir miles de millones en este problema por encima de otros?
Brockman, versado en la defensa de la posición de OpenAI, afirmó que la AGI era crucial para resolver problemas complejos más allá de las capacidades humanas. Citó el cambio climático y la medicina como ejemplos, ilustrando el potencial de la AGI para analizar grandes cantidades de datos y acelerar los avances en estas áreas críticas.
Relató la experiencia de un amigo con un trastorno raro, destacando cómo la AGI podría agilizar el diagnóstico y el tratamiento conectando a los especialistas de manera eficiente.
Luego pregunté sobre la distinción entre AGI e IA.
La AGI, que antes era un concepto nicho, había ganado terreno, en gran parte debido a la influencia de OpenAI. AGI se refiere a una IA hipotética que iguala o supera la inteligencia humana en la mayoría de las tareas económicamente valiosas. Si bien los investigadores habían progresado, persistían los debates sobre la posibilidad de simular la conciencia humana.
La IA, por otro lado, se refería tanto a la tecnología actual como a las capacidades del futuro cercano, demostrando aplicaciones en la mitigación del cambio climático y la atención médica.
Sutskever añadió que la AGI podría resolver desafíos globales permitiendo que las computadoras inteligentes se comuniquen y trabajen juntas de manera más eficiente que los humanos, evitando problemas de incentivos.
Esta declaración me llevó a preguntar si la AGI estaba destinada a reemplazar a los humanos. Brockman respondió que la tecnología debería servir a las personas y garantizar la “libertad económica” manteniendo su calidad de vida.
Brockman argumentó que el papel de OpenAI no era determinar si se construiría la AGI, sino influir en las circunstancias en las que se crearía. Enfatizó que su misión era asegurar que la AGI beneficie a toda la humanidad construyéndola y distribuyendo sus beneficios económicos.
Nuestra conversación continuó en círculos, con un éxito limitado en la obtención de detalles concretos. Intenté un enfoque diferente, preguntando sobre las posibles desventajas de la tecnología.
Brockman citó los deepfakes como una posible aplicación negativa.
Saqué a relucir el impacto ambiental de la propia IA.
Sutskever reconoció el problema, pero argumentó que la AGI podría contrarrestar el costo ambiental. Enfatizó la necesidad de centros de datos ecológicos.
"Los centros de datos son los mayores consumidores de energía, de electricidad", continuó Sutskever.
"Es el 2 por ciento a nivel mundial", ofrecí.
"¿No es Bitcoin como el 1 por ciento?", dijo Brockman.
Sutskever diría más tarde: "Creo que es bastante probable que no tarde mucho tiempo en que toda la superficie de la Tierra se cubra con centros de datos y centrales eléctricas". Habría "un tsunami de informática . . . casi como un fenómeno natural."
Los desafié a que OpenAI estaba apostando a que lograría con éxito una AGI beneficiosa para contrarrestar el calentamiento global antes de que el acto de hacerlo pudiera exacerbarlo.
Brockman dijo apresuradamente: "La forma en que lo pensamos es la siguiente: Estamos en una rampa de progreso de la IA. Esto es más grande que OpenAI, ¿verdad? Es el campo. Y creo que la sociedad en realidad está obteniendo beneficios de ello."
"El día que anunciamos el acuerdo", dijo, refiriéndose a la nueva inversión de $1 mil millones de Microsoft, "La capitalización de mercado de Microsoft aumentó en $10 mil millones. La gente cree que hay un ROI positivo incluso en la tecnología a corto plazo."
La estrategia de OpenAI era, por lo tanto, bastante simple, explicó: mantenerse al día con ese progreso.
Más tarde ese día, Brockman reiteró que nadie sabía realmente cómo sería la AGI y añadió que su tarea era seguir adelante, para desenterrar la forma de la tecnología paso a paso.
Detrás de las Escenas: Transparencia y Control
Originalmente estaba programado para almorzar con los empleados en la cafetería, pero me dijeron que tenía que estar fuera de la oficina. Brockman sería mi acompañante.
Este patrón se repitió a lo largo de mi visita: acceso restringido a ciertas áreas, reuniones a las que no podía asistir e investigadores que miraban al jefe de comunicaciones para asegurarse de que no estaban violando ninguna política de divulgación. Después de mi visita, Jack Clark envió una severa advertencia a los empleados en Slack para que no hablaran conmigo más allá de las conversaciones autorizadas. El guardia de seguridad también recibió mi fotografía, para que pudieran buscarme si aparecía sin aprobación en las instalaciones. Estos comportamientos contrastaban con el compromiso de OpenAI con la transparencia, lo que generaba dudas sobre lo que se estaba ocultando.
En el almuerzo y en los días que siguieron, le pregunté a Brockman sobre sus motivos para cofundar OpenAI. Dijo que se había obsesionado con la idea de replicar la inteligencia humana tras un artículo de Alan Turing. Lo inspiró. Codificó un juego de prueba de Turing y lo puso en línea, obteniendo unas 1500 visitas. Lo hizo sentir increíble. "Me di cuenta de que ese era el tipo de cosa que quería perseguir", dijo.
Se unió a OpenAI como cofundador en 2015, señalando que haría cualquier cosa para llevar la AGI a buen término, incluso si eso significaba ser conserje. Cuando se casó cuatro años después, celebró una ceremonia civil en la oficina de OpenAI frente a una pared de flores personalizada con la forma del logotipo hexagonal del laboratorio. Sutskever ofició.
"Fundamentalmente, quiero trabajar en la AGI por el resto de mi vida", me dijo Brockman.
Pregunté sobre qué lo motivaba.
Brockman mencionó las posibilidades de trabajar en una tecnología transformadora durante su vida. Creía que estaba en una posición única para provocar esa transformación. "Lo que realmente me atrae son los problemas que no se desarrollarán de la misma manera si no participo", dijo.
Quería liderar la AGI y anhelaba el reconocimiento por sus logros. En 2022, se convirtió en presidente de OpenAI.
Beneficio, Misión y Competencia
Durante nuestras conversaciones, Brockman afirmó que los cambios estructurales de OpenAI no alteraron su misión central. La estructura de beneficio limitado y los nuevos inversores la mejoraron. "Nos las arreglamos para conseguir a estos inversores alineados con la misión que están dispuestos a priorizar la misión sobre los retornos. Eso es una locura", dijo.
OpenAI ahora tenía los recursos para escalar sus modelos y mantenerse a la vanguardia de la competencia. No hacerlo podría socavar su misión. Fue esta suposición la que puso en marcha todas las acciones de OpenAI y sus consecuencias de gran alcance. Puso un reloj en marcha en cada uno de los avances de investigación de OpenAI, basado no en la escala de tiempo de la deliberación cuidadosa, sino en el ritmo implacable requerido para cruzar la línea de meta antes que nadie. Justificó el consumo de OpenAI de una cantidad insondable de recursos.
Brockman enfatizó la importancia de redistribuir los beneficios de la AGI.
Pregunté sobre ejemplos históricos de tecnologías que distribuyeron con éxito los beneficios al público.
"Bueno, en realidad creo que, en realidad es interesante mirar incluso Internet como un ejemplo", dijo. "También hay problemas, ¿verdad?", dijo como advertencia. "Cada vez que tienes algo súper transformador, no va a ser fácil descubrir cómo maximizar lo positivo, minimizar lo negativo.
"El fuego es otro ejemplo", añadió. "También tiene algunos inconvenientes reales. Así que tenemos que averiguar cómo mantenerlo bajo control y tener estándares compartidos.
"Los coches son un buen ejemplo", continuó. "Mucha gente tiene coches, benefician a mucha gente. También tienen algunos inconvenientes. Tienen algunas externalidades que no son necesariamente buenas para el mundo", terminó vacilante.
"Supongo que solo veo: lo que queremos para la AGI no es tan diferente de los lados positivos de Internet, los lados positivos de los coches, los lados positivos del fuego. La implementación es muy diferente, sin embargo, porque es un tipo de tecnología muy diferente."
Sus ojos se iluminaron con una nueva idea. "Solo mira los servicios públicos. Las compañías eléctricas, las compañías eléctricas son entidades muy centralizadas que proporcionan cosas de bajo costo y alta calidad que mejoran significativamente la vida de las personas."
Brockman parecía una vez más poco claro sobre cómo OpenAI se convertiría en un servicio público.
Volvió a lo único que sabía con certeza. OpenAI se comprometió a redistribuir los beneficios de la AGI y dar a todos la libertad económica. "Realmente lo decimos en serio", dijo.
"La forma en que lo pensamos es: La tecnología hasta ahora ha sido algo que hace subir todos los barcos, pero tiene este efecto de concentración real", dijo. "La AGI podría ser más extrema. ¿Qué pasaría si todo el valor se encerrara en un solo lugar? Esa es la trayectoria en la que estamos como sociedad. Y nunca hemos visto ese extremo. No creo que ese sea un buen mundo. Ese no es un mundo que quiera ayudar a construir."
Consecuencias y Reacción
En febrero de 2020, publiqué mi perfil para MIT Technology Review, revelando una desalineación entre la imagen pública de OpenAI y sus prácticas internas. Dije que "Con el tiempo, ha permitido que una feroz competitividad y una creciente presión para obtener cada vez más financiación erosionen sus ideales fundacionales de transparencia, apertura y colaboración."
Elon Musk respondió con tres tuits:
"OpenAI debería ser más abierto en mi opinión"
"No tengo control y solo una visión muy limitada de OpenAI. La confianza en Dario por la seguridad no es alta", dijo, refiriéndose a Dario Amodei, el director de investigación.
"Todas las organizaciones que desarrollan IA avanzada deberían estar reguladas, incluida Tesla"
Altman envió un correo electrónico a los empleados de OpenAI.
"Si bien definitivamente no fue catastrófico, fue claramente malo", escribió, sobre el artículo de MIT Technology Review.
Escribió que era "una crítica justa", que la pieza había identificado una desconexión entre la percepción de OpenAI y su realidad. Sugirió que Amodei y Musk se reunieran para resolver la crítica de Musk. Para evitar cualquier duda, el trabajo de Amodei y la seguridad de la IA eran fundamentales para la misión, escribió. "Creo que en algún momento en el futuro deberíamos encontrar una manera de defender públicamente a nuestro equipo (pero no dar a la prensa la pelea pública que les encantaría ahora)."
Después del artículo, OpenAI no me volvió a hablar durante tres años.