
¿Estamos en una burbuja de inteligencia artificial o en la base de una nueva revolución?
Mientras los gigantes como Microsoft, Google y Meta están invirtiendo cifras asombrosas en servidores e infraestructura, los próximos 18 meses definirán si el costo energético y financiero de la IA se justifica con un salto productivo real
7 minutos de lectura'


“No me preocupa malgastar unos cientos de miles de millones de dólares. Peor es el riesgo de que lleguemos tarde a la superinteligencia”. La frase es de Mark Zuckerberg, y tiene la crudeza de alguien que sabe que se juega el partido del siglo. No habla de un vuelto: representa quemar montañas de plata para no quedar afuera de lo que podría ser la revolución productiva más grande de la historia, por encima de la Industrial.
El contraste lo puso Sam Altman, de OpenAI, ante el Senado estadounidense: “Un electrón es un electrón”. Es decir, podés mejorar fábricas de chips, pero la IA al final depende de la energía. La revolución no solo se mide en parámetros de modelos: también se mide en gigavatios.
¿Todo este frenesí es un globo inflado por expectativas, como la tulipomanía del siglo XVII o la burbuja puntocom, o realmente estamos levantando la infraestructura de la próxima gran revolución tecnológica?
Los números que circulan marean, así que quedémonos con los más relevantes. Microsoft anunció que este año gastará US$100.000 millones en infraestructura de IA. Google subió su presupuesto a US$85.000 millones. Meta ronda los US$70.000 millones. Es plata que se transforma en edificios llenos de servidores y contratos eléctricos equivalentes al consumo de ciudades enteras.
En paralelo, empiezan a aparecer acuerdos de ciencia ficción. El más resonante: OpenAI firmó con Oracle un contrato por US$300.000 millones en cómputo a cinco años a partir de 2027. ¿Qué significa? Es como pagar hoy todas las horas de cancha de tenis de los próximos cinco años para asegurarte que nunca te quedás sin turno.
Acá entra McKinsey, que puso un número redondo sobre la mesa: la IA generativa podría sumar entre 2,6 y 4,4 billones (recordemos que un billón en español es un trillion inglés) de dólares al año a la economía mundial en productividad y nuevos negocios. La contracara: para que esa promesa no se corte, habría que invertir un billón anual en infraestructura hasta 2030. En criollo: si la IA devuelve 3 o 4 billones al año y el mundo invierte 1, la cuenta podría cerrar. La incógnita no es tanto si lo logrará, sino cuándo: si el valor llega rápido, es un negoción. Si tarda más de lo previsto, cualquier desviación impactaría inmediatamente en la euforia bursátil.
Volviendo a la economía real, los copilotos de Microsoft y Google ya redactan mails, resumen reuniones y arman borradores de presentaciones. Un estudio del Quarterly Journal of Economics mostró que los trabajadores de soporte al cliente que usaron IA aumentaron su productividad en 14%. En comercio, los bots empiezan a atender consultas simples y derivar a humanos solo los casos raros. No es la panacea, pero al menos ya no nos dejarán 20 minutos escuchando una musiquita, sino discutiendo con Arturito. ¿Qué ocurrirá con el consumo a medida que las máquinas logran reemplazar muchos puestos en lugar de asistirlos? ¿Se generará una baja de desempleo que derive en recesión, o se traducirá en nuevos tipos de empleo? No queda claro: ni Elon Musk ni Bill Gates descartan la necesidad de un ingreso básico universal ante el primer escenario.
El límite del enchufe
Todo suena genial hasta que llega la boleta de luz. La Agencia Internacional de Energía calcula que los data centers consumen hoy unos 415 teravatios-hora al año, el 1,5% de la electricidad global, y que en 2030 podrían trepar a 945 TWh. Eso es más que el consumo eléctrico anual de Japón.
¿Hay planes para evitar un apagón digital? Sí y no. Amazon ya se aseguró electricidad de una central nuclear en Pensilvania para sus data centers. Google se comprometió a operar con energía 100% libre de carbono para 2030, aunque sus emisiones aumentaron un 51% desde 2019, lo cual tiene escépticos hasta a los analistas más optimistas. Microsoft explora reactores nucleares modulares propios. Pero, al mismo tiempo, estados como Virginia o Georgia reconocen que tal vez tengan que extender la vida de plantas de carbón o gas para abastecer la demanda. El mensaje implícito es claro: la emergencia del cambio climático ya “pasó de moda” para los mercados (pero no para el mundo).
China corre con ventaja: produce casi el doble de electricidad que Estados Unidos y proyecta cerrar 2025 con 3,9 teravatios de capacidad instalada, de los cuales más del 60% no será fósil. En una carrera que se mide en gigavatios, tener la canilla de energía más grande del mundo es una diferencia estratégica.
¿Más plata significa más inteligencia?
Hasta ahora, la lógica era simple: más datos, más chips, más cómputo. Y funcionó. Pero no está claro que escalar indefinidamente sirva. Los datos de calidad se agotan: se usó tanto material de internet que para seguir entrenando habría que usar datos inventados por otras IA, con el riesgo de que la calidad se degrade.
Además, cada salto cuesta un orden de magnitud más. GPT-4 ya demandó cientos de millones de dólares. Analistas calculan que un hipotético GPT-6 podría costar decenas de miles de millones. Jensen Huang, CEO de Nvidia, advirtió este año que los modelos de razonamiento profundo pueden requerir hasta 100 veces más cómputo que los actuales. ¿Serán capaces de cobrar 100 veces más por sus frutos?
¿Cómo saber si estamos construyendo el futuro o inflando una burbuja? La respuesta está en dos métricas que podemos seguir mes a mes, pero con una advertencia crucial que los mercados están pasando por alto.
La paradoja de la productividad actual: la realidad es más cruda de lo que sugieren los titulares. Según Boston Consulting Group, el 74% de las empresas luchan para lograr y escalar valor real con IA. Las compañías que adoptan inteligencia artificial ven pérdidas de productividad antes que ganancias, según investigación del MIT que muestra que el 95% de los pilotos de IA generativa están fallando. La brecha entre el marketing corporativo y los resultados operativos es brutal. Los argumentos sobre la curva de adopción solo servirían para justificar un año más sin resultados tangibles.
El test energético: el consumo eléctrico de data centers crecerá un 15% anual hasta 2030. Si esta demanda no genera valor económico proporcional —es decir, si gastamos la electricidad de países enteros para automatizar tareas que ya eran eficientes— tendremos la evidencia más clara de despilfarro masivo de recursos. Esto depende de un límite teórico: ¿lograremos modelos cada vez más inteligentes basándonos en la tecnología actual, o nos toparemos con un techo antes de tiempo? La principal voz que advierte sobre este tema es nada menos que el jefe de IA de Meta y uno de los investigadores más prestigiosos del mundo, Yann LeCun.
Los próximos 18 meses definirán si el costo energético y financiero de la inteligencia artificial se justifica con un salto productivo real. Pero, aun logrando los resultados prometidos, quizás la última pregunta sea otra: ¿ese salto se traducirá en más y mejores trabajos, o en la necesidad de repensar por completo el contrato social? Isaac Asimov advirtió: “La ciencia gana conocimiento más rápido de lo que la sociedad, sabiduría”. El desafío es que esta vez la brecha no se mida solo en gigavatios y trillones de dólares, sino en el destino laboral de miles de millones de personas. Y ahí no habrá plan de rescate tecnológico que alcance.






