Repensando el Gasto en IA: Demanda Supera Eficiencia

El Temblor Inicial: DeepSeek y el Espejismo de la Eficiencia

La aparición de la IA china DeepSeek a principios de este año envió ondas de choque a través del panorama de la inversión tecnológica. Su enfoque aparentemente revolucionario, que prometía una potente inteligencia artificial con una sobrecarga computacional significativamente menor, desató inmediatamente la especulación. Rápidamente se formó una narrativa: quizás la expansión implacable y costosa de la infraestructura de IA, caracterizada por compras masivas de chips y sistemas especializados, estaba a punto de desacelerarse. El mercado reaccionó, reflejando la creencia de que una nueva era de IA rentable podría reducir drásticamente el auge de gasto anticipado.

Sin embargo, las perspectivas de una reciente reunión de alto nivel de mentes de la industria pintan un cuadro marcadamente diferente. Una conferencia sobre IA generativa convocada en Nueva York por Bloomberg Intelligence sugirió que la interpretación inicial, centrada únicamente en los posibles ahorros de costos, omitió la historia más amplia. Lejos de señalar una desaceleración del gasto, el evento subrayó un hambre casi insaciable de mayor capacidad de IA. El consenso no era sobre recortar; era sobre cómo alimentar un apetito en crecimiento exponencial por sistemas inteligentes, incluso mientras se deseaba desesperadamente que el menú fuera menos costoso.

Voces desde las Trincheras: Una Sed Insaciable de Capacidad

Las discusiones a lo largo del evento de un día, que reunió a desarrolladores, estrategas e inversores, giraron consistentemente en torno al tema de la demanda creciente que impulsa una inversión monumental. Mandeep Singh, analista senior de tecnología de Bloomberg Intelligence y uno de los organizadores del evento, capturó sucintamente el sentimiento predominante. Reflexionando sobre los numerosos paneles y discusiones de expertos, señaló un estribillo universal: nadie involucrado sentía que poseía suficiente capacidad de IA. La sensación abrumadora era la de necesitar más, no tener demasiado.

Crucialmente, añadió Singh, el espectro de una ‘burbuja de infraestructura’, un temor común en los sectores tecnológicos en rápida expansión, estuvo notablemente ausente de la conversación. El enfoque permaneció directamente en el desafío fundamental que enfrenta toda la industria. Anurag Rana, colega de Singh y analista senior de servicios de TI y software de Bloomberg Intelligence, lo enmarcó como la pregunta primordial: ‘¿Dónde estamos en ese ciclo [de construcción de infraestructura de IA]?’

Si bien reconoció que determinar la etapa exacta de esta construcción masiva sigue siendo esquivo (‘Nadie lo sabe’ con certeza, admitió Rana), el fenómeno DeepSeek cambió innegablemente las perspectivas. Inyectó una potente dosis de esperanza de que cargas de trabajo significativas de IA podrían manejarse potencialmente de manera más económica. ‘DeepSeek sacudió a mucha gente’, observó Rana. La implicación era clara: si los modelos sofisticados de IA pudieran realmente ejecutarse eficientemente en hardware menos exigente, quizás proyectos gigantescos, como las iniciativas de varios cientos de miles de millones de dólares que se rumorea que planean consorcios que involucran a los principales actores tecnológicos, podrían ser reevaluados o escalados de manera diferente.

El sueño, repetido en toda la industria según Rana, es que los costos operativos de la IA, particularmente para la inference (la etapa donde los modelos entrenados generan predicciones o contenido), sigan la dramática trayectoria descendente observada en el almacenamiento de computación en la nube durante la última década. Recordó cómo la economía del almacenamiento de grandes cantidades de datos en plataformas como Amazon Web Services (AWS) mejoró drásticamente durante aproximadamente ocho años. ‘Esa caída en la curva de costos… la economía era buena’, afirmó. ‘Y eso es lo que todos esperan, que en el lado de la inferencia… si la curva cae a ese nivel, oh Dios mío, la tasa de adopción de la IA… va a ser espectacular’. Singh estuvo de acuerdo, señalando que la llegada de DeepSeek ha ‘cambiado fundamentalmente la mentalidad de todos sobre el logro de la eficiencia’.

Este anhelo de eficiencia fue palpable durante las sesiones de la conferencia. Si bien numerosos paneles profundizaron en los aspectos prácticos de trasladar los proyectos empresariales de IA de las etapas conceptuales a la producción en vivo, una discusión paralela enfatizó constantemente la necesidad crítica de reducir drásticamente los costos asociados con la implementación y ejecución de estos modelos de IA. El objetivo es claro: democratizar el acceso haciendo que la IA sea económicamente viable para una gama más amplia de aplicaciones y usuarios. Shawn Edwards, el propio tecnólogo jefe de Bloomberg, sugirió que DeepSeek no fue necesariamente una sorpresa completa, sino más bien una poderosa ilustración de un deseo universal. ‘Lo que me hizo pensar es que sería genial si pudieras agitar una varita mágica y hacer que estos modelos funcionaran increíblemente eficientemente’, comentó, extendiendo el deseo a todo el espectro de modelos de IA, no solo a un avance específico.

El Principio de Proliferación: Alimentando la Demanda Computacional

Una de las razones principales por las que los expertos anticipan una inversión continua y sustancial en infraestructura de IA, a pesar de la búsqueda de eficiencia, radica en la pura proliferación de modelos de IA. Un tema recurrente a lo largo de la conferencia de Nueva York fue el alejamiento decisivo de la noción de un único modelo de IA monolítico capaz de manejar todas las tareas.

  • Un Asunto Familiar: Como dijo Edwards de Bloomberg, ‘Usamos una familia de modelos. No existe tal cosa como el mejor modelo’. Esto refleja una creciente comprensión de que diferentes arquitecturas de IA sobresalen en diferentes tareas: generación de lenguaje, análisis de datos, reconocimiento de imágenes, completado de código, etc.
  • Personalización Empresarial: Los panelistas coincidieron ampliamente en que, si bien los grandes modelos ‘fundacionales’ o ‘frontera’ de propósito general continuarán siendo desarrollados y refinados por los principales laboratorios de IA, la acción real dentro de las empresas implica desplegar potencialmente cientos o incluso miles de modelos de IA especializados.
  • Fine-Tuning y Datos Propietarios: Muchos de estos modelos empresariales se adaptarán a partir de modelos base mediante un proceso llamado fine-tuning. Esto implica volver a entrenar una red neuronal preentrenada con los datos específicos, a menudo propietarios, de una empresa. Esto permite que la IA comprenda contextos comerciales únicos, terminología e interacciones con los clientes, entregando resultados mucho más relevantes y valiosos de lo que podría hacerlo un modelo genérico.
  • Democratizando el Desarrollo: Jed Dougherty, en representación de la plataforma de ciencia de datos Dataiku, destacó la necesidad de ‘opcionalidad entre los modelos’ para los agentes de IA empresariales. Hizo hincapié en la importancia de dar a las empresas control, capacidades de creación y auditabilidad sobre sus herramientas de IA. ‘Queremos poner las herramientas para construir estas cosas en manos de la gente’, afirmó Dougherty. ‘No queremos que diez doctores construyan todos los agentes’. Este impulso hacia una mayor accesibilidad en el desarrollo implica en sí mismo una necesidad de más infraestructura subyacente para soportar estos esfuerzos de creación distribuidos.
  • IA Específica de Marca: Las industrias creativas ofrecen un excelente ejemplo. Hannah Elsakr, al frente de nuevas empresas comerciales en Adobe, explicó su estrategia apostando por modelos personalizados como un diferenciador clave. ‘Podemos entrenar extensiones de modelos personalizadas para su marca que pueden ser de ayuda para una nueva campaña publicitaria’, ilustró, mostrando cómo la IA puede adaptarse para mantener la estética y los mensajes específicos de la marca.

Más allá de la diversificación de modelos, el creciente despliegue de agentes de IA dentro de los flujos de trabajo corporativos es otro impulsor significativo de la demanda de procesamiento. Estos agentes se conciben no solo como herramientas pasivas, sino como participantes activos capaces de ejecutar tareas de varios pasos.

Ray Smith, al frente de los agentes y esfuerzos de automatización de Copilot Studio de Microsoft, predijo un futuro en el que los usuarios interactuarán con potencialmente cientos de agentes especializados a través de una interfaz unificada como Copilot. ‘No meterás todo un proceso en un solo agente, lo dividirás en partes’, explicó. Estos agentes, sugirió, son esencialmente ‘aplicaciones en el nuevo mundo’ de la programación. La visión es una en la que los usuarios simplemente declaran su objetivo – ‘decirle lo que queremos lograr’ – y el agente orquesta los pasos necesarios. ‘Las aplicaciones agénticas son solo una nueva forma de flujo de trabajo’, afirmó Smith, enfatizando que realizar esta visión es menos una cuestión de posibilidad tecnológica (‘todo es tecnológicamente posible’) y más sobre el ‘ritmo al que lo construimos’.

Este impulso para integrar más profundamente a los agentes de IA en los procesos organizacionales cotidianos intensifica aún más la presión por la reducción de costos y el despliegue eficiente. James McNiven, jefe de gestión de productos del gigante de microprocesadores ARM Holdings, enmarcó el desafío en términos de accesibilidad. ‘¿Cómo proporcionamos acceso en más y más dispositivos?’, reflexionó. Observando modelos que alcanzan capacidades cercanas al ‘nivel de doctorado’ en tareas específicas, trazó un paralelo con el impacto transformador de llevar sistemas de pago móvil a naciones en desarrollo hace años. La pregunta central sigue siendo: ‘¿Cómo llevamos esa [capacidad de IA] a las personas que pueden usar esa habilidad?’ Poner agentes de IA sofisticados fácilmente disponibles como asistentes para una amplia franja de la fuerza laboral requiere no solo software inteligente sino también hardware eficiente y, inevitablemente, más inversión en infraestructura subyacente, incluso a medida que mejora la eficiencia por cómputo.

Obstáculos de Escalado: Silicio, Energía y los Gigantes de la Nube

Incluso los modelos fundacionales genéricos más utilizados se están multiplicando a un ritmo asombroso, ejerciendo una inmensa presión sobre la infraestructura existente. Dave Brown, quien supervisa la computación y las redes para Amazon Web Services (AWS), reveló que su plataforma por sí sola ofrece a los clientes acceso a alrededor de 1.800 modelos de IA diferentes. Subrayó el intenso enfoque de AWS en ‘hacer mucho para reducir el costo’ de ejecutar estas poderosas herramientas.

Una estrategia clave para proveedores de nube como AWS implica desarrollar su propio silicio personalizado. Brown destacó el uso creciente de chips diseñados por AWS, como sus procesadores Trainium optimizados para el entrenamiento de IA, afirmando: ‘AWS está utilizando más de nuestros propios procesadores que los procesadores de otras compañías’. Este movimiento hacia hardware especializado e interno tiene como objetivo tomar el control sobre el rendimiento y el costo, reduciendo la dependencia de proveedores de chips de propósito general como Nvidia, AMD e Intel. A pesar de estos esfuerzos, Brown reconoció con franqueza la realidad fundamental: ‘Los clientes harían más si el costo fuera menor’. El techo de la demanda está actualmente definido más por las restricciones presupuestarias que por la falta de aplicaciones potenciales.

La escala de recursos requerida por los principales desarrolladores de IA es inmensa. Brown señaló la colaboración diaria de AWS con Anthropic, los creadores de la sofisticada familia de modelos de lenguaje Claude. Michael Gerstenhaber, jefe de interfaces de programación de aplicaciones de Anthropic, hablando junto a Brown, señaló la intensidad computacional de la IA moderna, particularmente los modelos diseñados para el razonamiento complejo o el ‘pensamiento’. Estos modelos a menudo generan explicaciones detalladas paso a paso para sus respuestas, consumiendo una potencia de procesamiento significativa. ‘Los modelos pensantes hacen que se utilice mucha capacidad’, afirmó Gerstenhaber.

Si bien Anthropic trabaja activamente con AWS en técnicas de optimización como el ‘prompt caching’ (almacenar y reutilizar cómputos de interacciones previas para ahorrar recursos), el requisito fundamental de hardware sigue siendo enorme. Gerstenhaber declaró sin rodeos que Anthropic necesita ‘cientos de miles de aceleradores’ – chips de IA especializados – distribuidos ‘en muchos centros de datos’ simplemente para ejecutar su conjunto actual de modelos. Esto proporciona una idea concreta de la escala pura de los recursos informáticos que sustentan a un solo jugador importante de IA.

Agravando el desafío de adquirir y gestionar vastas flotas de silicio está el creciente consumo de energía asociado con la IA. Brown destacó esto como una preocupación crítica y en rápida escalada. Los centros de datos actuales que soportan cargas de trabajo intensivas de IA ya consumen energía medida en cientos de megavatios. Las proyecciones sugieren que los requisitos futuros inevitablemente ascenderán al rango de gigavatios, la producción de grandes centrales eléctricas. ‘La energía que consume’, advirtió Brown, refiriéndose a la IA, ‘es grande, y la huella es grande en muchos centros de datos’. Esta creciente demanda de energía presenta no solo inmensos costos operativos, sino también importantes desafíos ambientales y logísticos para ubicar y alimentar la próxima generación de infraestructura de IA.

El Comodín Económico: Una Sombra sobre los Planes de Crecimiento

A pesar de las perspectivas optimistas impulsadas por los avances tecnológicos y los casos de uso florecientes, una variable significativa se cierne sobre todas las proyecciones de inversión en IA: el clima económico más amplio. Cuando concluyó la conferencia de Bloomberg Intelligence, los asistentes ya observaban nerviosismo en el mercado derivado de los paquetes arancelarios globales recién anunciados, percibidos como más extensos de lo anticipado.

Esto sirve como un potente recordatorio de que las ambiciosas hojas de ruta tecnológicas pueden verse rápidamente interrumpidas por vientos en contra macroeconómicos. Rana de Bloomberg advirtió que si bien el gasto en IA podría estar algo aislado inicialmente, las áreas tradicionales de inversión en TI corporativa, como servidores y almacenamiento no relacionados con la IA, podrían ser las primeras víctimas en una contracción económica. ‘La otra gran cosa en la que estamos enfocados es el gasto en tecnología no relacionada con la IA’, señaló, expresando preocupación por el impacto potencial en los principales proveedores de servicios tecnológicos de cara a la temporada de resultados, incluso antes de considerar específicamente los presupuestos de IA.

Sin embargo, existe una teoría predominante de que la IA podría resultar excepcionalmente resistente. Rana sugirió que los Directores Financieros (CFOs) de las principales corporaciones, enfrentando restricciones presupuestarias debido a la incertidumbre económica o incluso una recesión, podrían optar por priorizar las iniciativas de IA. Potencialmente podrían desviar fondos de áreas menos críticas para proteger las inversiones estratégicas en IA percibidas como cruciales para la competitividad futura.

Sin embargo, esta visión optimista está lejos de estar garantizada. La prueba definitiva, según Rana, será si las grandes corporaciones mantienen sus agresivos objetivos de gasto de capital, particularmente para construir centros de datos de IA, frente a la creciente incertidumbre económica. La pregunta crítica sigue siendo: ‘¿Van a decir, ‘¿Sabes qué? Es demasiado incierto’’. La respuesta determinará si el impulso aparentemente imparable detrás del gasto en infraestructura de IA continúa su ascenso implacable o enfrenta una pausa inesperada dictada por las realidades económicas globales.