Esta semana ha sido especialmente dinámica en el ámbito de la inteligencia artificial (IA), y como es habitual, les ofrezco un análisis detallado de los acontecimientos más relevantes.
Uno de los anuncios más impactantes ha sido la iniciativa “Stargate” del expresidente Donald Trump, un ambicioso plan de inversión de 500 mil millones de dólares destinado a la expansión y modernización de la infraestructura de IA. OpenAI, Oracle y SoftBank lideran este esfuerzo, mientras que Microsoft, por su parte, ha anunciado una inversión adicional de 80 mil millones de dólares en nuevos centros de datos dedicados a la IA.
Sin embargo, este nivel de inversión plantea interrogantes. David Cahn, de Sequoia Capital, advertía hace seis meses que la industria de la IA debía generar ingresos superiores a 600 mil millones de dólares para justificar el ritmo actual de construcción de centros de datos. Con estas nuevas inversiones, la cifra asciende a más de un billón de dólares, lo que suscita dudas sobre la sostenibilidad económica del sector.
Desde mi experiencia trabajando con estas tecnologías, no está claro si estas inversiones rendirán los frutos esperados. Existe la posibilidad de que esta infraestructura, lejos de representar una ventaja competitiva, se convierta en una carga financiera para muchas empresas. Esto recuerda lo ocurrido a principios de los años 2,000, cuando grandes inversiones en fibra óptica quedaron inutilizadas durante años. Un caso emblemático fue el de Global Crossing, que terminó en bancarrota.
En un giro predecible, solo días después de estos anuncios, DeepSeek, la empresa de la que hablamos en la edición anterior, presentó un nuevo modelo de IA con capacidades de razonamiento equiparables a O1, uno de los modelos más avanzados de OpenAI. Lo notable es que DeepSeek logró este hito con una fracción del presupuesto que Meta y OpenAI han destinado a entrenar sus modelos.
El mercado reaccionó de inmediato, y las acciones de Nvidia sufrieron una caída abrupta, marcando una de las mayores pérdidas en valor bursátil de la historia. No obstante, la reducción en el consumo energético para entrenar modelos no implica necesariamente una menor demanda de hardware especializado. De hecho, podría motivar a más empresas a desarrollar sus propios modelos de IA, lo que incrementaría la demanda de GPUs. Tradicionalmente, solo las grandes corporaciones con vastos recursos computacionales podían desarrollar modelos de lenguaje de gran escala. Sin embargo, con la reducción de costos, más empresas podrían incursionar en este ámbito. Aun así, se estima que DeepSeek requirió más de 40 millones de dólares en inversión, un umbral todavía alto para muchas organizaciones. Las primeras proyecciones indican que empresas y clientes están adquiriendo chips de Nvidia en grandes volúmenes tras estos anuncios, lo que podría revertir la reciente tendencia bajista en su cotización. Con un mes por delante antes del informe de ganancias de Nvidia, tendremos una mejor perspectiva sobre el impacto de DeepSeek en la industria.
Para cerrar, OpenAI ha lanzado una versión reducida de O3, su modelo más avanzado hasta la fecha. Aunque se perfila como el mejor modelo disponible en el mercado, es razonable suponer que su costo de entrenamiento ha sido significativamente mayor que el de DeepSeek. Resta por ver si su desempeño justifica la inversión.
Estas han sido dos semanas cruciales para la evolución de la IA, y todo indica que este es solo el comienzo de una transformación acelerada. Sería deseable que en México alguna empresa aprovechara la reducción de costos en infraestructura de GPUs para desarrollar capacidades propias, reduciendo así la dependencia de la tecnología estadounidense y china. Esto cobra aún más relevancia en el contexto de las recientes políticas arancelarias anunciadas por Donald Trump, que podrían tener un impacto significativo en la economía mexicana.