Navegando el Laberinto Regulatorio: Un Llamado a la Unidad (y la Prelación)
Un hilo conductor común en las presentaciones de varias de las principales empresas de IA es una preocupación palpable por el creciente mosaico de regulaciones de IA a nivel estatal. OpenAI, el creador de ChatGPT, pidió explícitamente un rescate de lo que percibe como un inminente diluvio de más de 700 proyectos de ley dispares que circulan actualmente a nivel estatal. Sin embargo, la solución propuesta por OpenAI no es una legislación federal, sino un marco estrecho y voluntario. Este marco, crucialmente, se adelantaría a las regulaciones estatales, ofreciendo a las empresas de IA una especie de puerto seguro. A cambio de esta protección, las empresas obtendrían acceso a lucrativos contratos gubernamentales y recibirían advertencias anticipadas sobre posibles amenazas a la seguridad. El gobierno, a su vez, estaría facultado para probar las capacidades de los nuevos modelos y compararlas con las de sus homólogos extranjeros.
Google se hace eco de este sentimiento, abogando por la prelación de las leyes estatales con un ‘marco nacional unificado para los modelos de IA de frontera’. Este marco, según Google, debería priorizar la seguridad nacional y, al mismo tiempo, fomentar un entorno propicio para la innovación estadounidense en IA. Sin embargo, a diferencia de OpenAI, Google no se opone inherentemente a la regulación federal de la IA, siempre que se centre en aplicaciones específicas de la tecnología. Una advertencia clave para Google es que los desarrolladores de IA no deben ser responsables del mal uso de sus herramientas por parte de terceros. Google también aprovechó la oportunidad para impulsar una nueva política federal de privacidad, argumentando que afecta a la industria de la IA.
Más allá de la regulación nacional, Google insta a la administración estadounidense a colaborar activamente con otros gobiernos en la legislación sobre IA. La empresa advierte específicamente contra las leyes que podrían obligar a las empresas a divulgar secretos comerciales. Prevé una norma internacional en la que solo el gobierno del país de origen de una empresa tendría la autoridad para realizar evaluaciones profundas de sus modelos de IA.
El Desafío de China: Controles de Exportación y Competencia Estratégica
El espectro de los rápidos avances de China en IA ocupa un lugar destacado en las presentaciones de todos los principales actores. La regla de ‘difusión de IA’, introducida por la administración Biden en enero de 2024 para frenar el acceso de China a la tecnología avanzada de EE. UU., se convirtió en un punto focal de debate. Si bien todas las empresas reconocieron la existencia de la regla, las modificaciones propuestas revelan enfoques radicalmente diferentes.
OpenAI propone una estrategia de ‘diplomacia comercial’. Sugiere expandir el nivel superior de la regla, que actualmente permite importaciones ilimitadas de chips de IA de EE. UU., para incluir a más países. ¿La condición? Estos países deben comprometerse con los ‘principios democráticos de la IA’, desplegando sistemas de IA de manera que ‘promuevan más libertades para sus ciudadanos’. Este enfoque busca aprovechar el liderazgo tecnológico de EE. UU. para incentivar la adopción de una gobernanza de la IA alineada con los valores a nivel mundial.
Microsoft comparte el deseo de OpenAI de expandir el nivel superior de la Regla de Difusión. Sin embargo, Microsoft también enfatiza la necesidad de una mejor aplicación. Pide mayores recursos para el Departamento de Comercio para garantizar que los chips de IA de vanguardia se exporten y desplieguen solo en centros de datos certificados como confiables y seguros por el gobierno de EE. UU. Esta medida tiene como objetivo evitar que las empresas chinas eludan las restricciones accediendo a potentes chips de IA a través de un creciente ‘mercado gris’ de proveedores de centros de datos más pequeños y menos vigilados en Asia y Oriente Medio.
Anthropic, el desarrollador del modelo de IA Claude, aboga por controles aún más estrictos sobre los países en el segundo nivel de la regla de difusión de IA, limitando específicamente su acceso a los chips H100 de Nvidia. Además, Anthropic insta a EE. UU. a expandir los controles de exportación para abarcar los chips H20 de Nvidia, que fueron diseñados específicamente para el mercado chino para cumplir con las regulaciones estadounidenses existentes. Esto demuestra la postura más agresiva de Anthropic para evitar que China adquiera cualquier tecnología que pueda reforzar sus capacidades de IA.
Google, en una marcada desviación de sus competidores, expresa su oposición directa a la regla de difusión de IA. Si bien reconoce la validez de sus objetivos de seguridad nacional, Google argumenta que la regla impone ‘cargas desproporcionadas a los proveedores de servicios en la nube de EE. UU.’. Esta postura refleja las preocupaciones más amplias de Google sobre el potencial de las regulaciones para sofocar la innovación y obstaculizar su competitividad global.
Más allá de la regla de difusión, OpenAI sube la apuesta al sugerir una prohibición global de los chips de Huawei y los ‘modelos chinos que violan la privacidad del usuario y crean riesgos de seguridad, como el riesgo de robo de propiedad intelectual’. Esto también se interpreta ampliamente como una indirecta a DeepSeek.
Derechos de Autor y el Combustible de la IA: Navegando por la Propiedad Intelectual
El espinoso tema de los derechos de autor, particularmente en el contexto del entrenamiento de modelos de IA, también recibe una atención significativa. OpenAI, en una clara reprimenda a la Ley de IA de Europa, critica la disposición que otorga a los titulares de derechos la posibilidad de optar por no participar en el uso de sus obras para el entrenamiento de IA. OpenAI insta a la administración estadounidense a ‘evitar que los países menos innovadores impongan sus regímenes legales a las empresas estadounidenses de IA y ralenticen nuestro ritmo de progreso’. Esta postura refleja la creencia de OpenAI de que el acceso sin restricciones a los datos es crucial para mantener la ventaja competitiva de EE. UU. en IA.
Google, por otro lado, pide ‘leyes de derechos de autor equilibradas’, y también leyes de privacidad que otorguen automáticamente una exención para la información disponible públicamente. Esto sugiere un enfoque más matizado, reconociendo los derechos de los creadores y al mismo tiempo reconociendo la importancia de los datos para el desarrollo de la IA. Google también propone una revisión de las ‘patentes de IA otorgadas por error’, destacando el creciente número de patentes de IA de EE. UU. que están siendo adquiridas por empresas chinas.
Impulsando el Futuro: Infraestructura y Demandas Energéticas
La enorme potencia computacional necesaria para entrenar y operar modelos de IA avanzados requiere una expansión significativa de la infraestructura y los recursos energéticos. OpenAI, Anthropic y Google abogan por la simplificación del proceso de permisos para las líneas de transmisión, con el objetivo de acelerar la construcción de infraestructura energética para soportar nuevos centros de datos de IA.
Anthropic adopta una postura particularmente audaz, pidiendo 50 gigavatios adicionales de energía en EE. UU., exclusivamente para uso de IA, para 2027. Esto subraya las inmensas demandas energéticas del panorama de la IA en rápida evolución y el potencial de la IA para convertirse en un importante impulsor del consumo de energía.
Seguridad, Adopción Gubernamental y el Estado Impulsado por la IA
Las presentaciones también profundizan en la intersección de la IA, la seguridad nacional y las operaciones gubernamentales. OpenAI propone acelerar las aprobaciones de ciberseguridad para las principales herramientas de IA, lo que permite a las agencias gubernamentales probarlas e implementarlas más fácilmente. También sugiere asociaciones público-privadas para desarrollar modelos de IA centrados en la seguridad nacional que podrían no tener un mercado comercial viable, como los modelos diseñados para tareas nucleares clasificadas.
Anthropic se hace eco del llamado a procedimientos de adquisición más rápidos para integrar la IA en las funciones gubernamentales. En particular, Anthropic también enfatiza la importancia de roles sólidos de evaluación de seguridad para el National Institute of Standards and Technology (NIST) y el U.S. AI Safety Institute.
Google argumenta que las agencias de seguridad nacional deberían poder utilizar recursos comerciales de almacenamiento y computación para sus necesidades de IA. También aboga por que el gobierno publique sus conjuntos de datos para el entrenamiento comercial de IA y que exija estándares de datos abiertos y API en diferentes implementaciones de nube gubernamentales para facilitar ‘conocimientos impulsados por la IA’.
El Impacto Social: Mercados Laborales y la Transformación Impulsada por la IA
Finalmente, las presentaciones abordan las implicaciones sociales más amplias de la IA, particularmente su impacto potencial en los mercados laborales. Anthropic insta a la administración a monitorear de cerca las tendencias del mercado laboral y prepararse para interrupciones significativas. Google reconoce de manera similar que se avecinan cambios, enfatizando la necesidad de un desarrollo más amplio de habilidades de IA. Google también solicita una mayor financiación para la investigación de IA y una política para garantizar que los investigadores estadounidenses tengan acceso adecuado a la potencia de cálculo, los datos y los modelos.
En esencia, las presentaciones al ‘Plan de Acción de IA’ pintan la imagen de una industria en un momento crucial. Si bien están unidas en su ambición de avanzar en la tecnología de IA, las principales empresas estadounidenses tienen puntos de vista fundamentalmente diferentes sobre cómo navegar los complejos desafíos de la regulación, la competencia internacional y el impacto social. Los próximos meses y años revelarán cómo estas visiones divergentes dan forma al futuro de la IA, no solo en los Estados Unidos sino a nivel mundial.