El CEO de OpenAI la lía al comparar la energía necesaria para mantener la IA con el coste de criar a un ser humano

¡Los informes independientes sitúan la demanda de los servidores al mismo nivel que el consumo de países enteros!

El CEO de OpenAI la lía al comparar la energía necesaria para mantener la IA con el coste de criar a un ser humano
Las declaraciones de Sam Altman sobre el impacto ambiental han sido polémicas
Publicado en Tecnología

En un intento por aligerar las críticas sobre el consumo eléctrico de sus centros de datos, el CEO de OpenAI, Sam Altman, ha recurrido a una analogía que, como mucho en este ámbito, ha resultado polémico. Al situar en la misma balanza el voltaje de los servidores y las calorías necesarias para el desarrollo humano, la narrativa corporativa parece buscar una validación existencial para un problema de infraestructura y acceso a recursos.

El impacto ambiental del silicio

Durante una cumbre tecnológica en India, Altman decidió responder a las preocupaciones sobre el impacto ambiental de modelos como ChatGPT, comparándolo con el proceso de "entrenar" a un ser humano.

Según el directivo, educar a una persona desde su nacimiento hasta la edad adulta conlleva un gasto ingente de energía biológica y alimentaria durante dos décadas. Bajo este prisma, Altman sugiere que el coste energético de sus sistemas no es desproporcionado, sino que incluso podría haber alcanzado ya una eficiencia comparable a la mente humana.

Sin embargo, esta visión omite muchas variables. Mientras que un ser humano es una entidad individual y biológicamente limitada, un modelo de lenguaje se replica millones de veces de forma simultánea, consumiendo recursos en cada interacción global.

Según la transcripción del evento publicada por la revista TechSpot, el directivo se esforzó en desmentir que una consulta individual consuma tanto como la batería de un móvil, intentando rebajar la percepción pública del coste por interacción.

Agua y megavatios

El optimismo de Altman no solo se centró en los vatios, sino también en el uso del agua, calificando las críticas sobre el consumo hídrico de la industria como "fabricadas y completamente falsas".

El CEO defendió que el sector está abandonando los sistemas de refrigeración evaporativa. No obstante, los datos industriales independientes afirman que más de la mitad de las instalaciones actuales siguen dependiendo de la evaporación de agua potable para evitar el sobrecalentamiento de sus procesadores.

Las cifras de consumo real dibujan un panorama que difícilmente encaja con la simplicidad de una dieta humana:

  • Demanda eléctrica: Se estima que las granjas de servidores exigirán este año unos 23 gigavatios, una cifra equivalente al consumo total del Reino Unido.
  • Hardware intensivo: Una sola tarjeta Nvidia H100 consume 700 vatios constantes a pleno rendimiento.
  • Crecimiento: La Agencia Internacional de la Energía advierte de un incremento anual del 15%, proyectando que la IA superará pronto el gasto energético del minado de Bitcoin.

Al trasladar el debate desde la crisis de capacidad energética mundial hacia comparaciones biológicas imposibles de verificar, se corre el riesgo de ignorar la urgencia climática. El desafío de la inteligencia artificial es probar que su expansión no comprometerá la estabilidad energética de las naciones que en las que se desarrolla.

Puedes seguir a iPadizate en Facebook, WhatsApp, Twitter (X) o consultar nuestro canal de Telegram para estar al día con las últimas noticias de tecnología.

Para ti
Queremos saber tu opinión. ¡Comenta!