Publicado 17/09/2025 13:02

Portaltic.-El entrenamiento de Grok 4 costó 490 millones de dólares y consumió la misma energía que una ciudad de 4.000 habitantes

Archivo - 12 July 2025, Indonesia, Bandung: In this photo illustration, the xAI Grok logo is seen displayed on a smartphone screen. Grok is a generative artificial intelligence chatbot developed by xAI. Photo: Algi Febri Sugita/ZUMA Press Wire/dpa
Archivo - 12 July 2025, Indonesia, Bandung: In this photo illustration, the xAI Grok logo is seen displayed on a smartphone screen. Grok is a generative artificial intelligence chatbot developed by xAI. Photo: Algi Febri Sugita/ZUMA Press Wire/dpa - Algi Febri Sugita/ZUMA Press Wir / DPA - Archivo

   MADRID, 17 Sep. (Portaltic/EP) -

   El entrenamiento de Grok 4 costó 490 millones de dólares (unos 414 millones de euros) y consumió la misma energía que necesitaría una ciudad de 4.000 habitantes, lo que implica unas emisiones equivalentes a las de un avión Boeing en tres años.

   El entrenamiento de los modelos de inteligencia artificial (IA) actuales requiere inversiones sustanciales en electricidad, emisiones, agua y dinero.

   En este sentido, el entrenamiento de Grok 4, el último modelo del asistente de IA de la compañía fundada por Elon Musk, xAI, costó alrededor de unos 490 millones de dólares, según se ha recogido en un informe publicado por la organización de investigación sin ánimo de lucro que investiga el futuro de la IA, Epoch AI.

   En concreto, los investigadores de esta organización apuntaron que la energía que se utilizó para entrenar Grok 4 podría abastecer a una ciudad de 4.000 personas, es decir, unos 310 gigavatios por hora de electricidad, lo que implica una gran huella ambiental, con emisiones de 154.000 toneladas de dióxido de carbono, equivalentes a las de un avión Boeing en tres años.

   Estas cifras se han estimado a partir de los datos conocidos sobre Grok-3 y la suposición de que el entrenamiento del nuevo modelo se realizó en supercomputadoras especializadas, como las variantes más potentes de la GPU H100, en un equivalente a 246 millones de horas.

   Así, el cálculo tiene en cuenta no sólo la energía consumida por las unidades de procesamiento principales, sino también el gasto energético de todo el 'hardware' de apoyo, como los sistemas de refrigeración y la infraestructura necesaria para mantener operando estos centros de datos.

   Además, Epoch AI ha señalado que se necesitaron unos 754 millones de litros de agua para su entrenamiento, una cantidad suficiente para llenar 300 piscinas olímpicas.

   Epoch AI ha apuntado que este cálculo lo ha basado en que el proceso se alimentó con generadores de gas natural, la fuente de energía de la supercomputadora de xAI Memphis Colossus, que requieren grandes cantidades de agua para su funcionamiento. El agua también fue necesaria para los sistemas de enfriamiento de los centros de datos, los cuales funcionan para mantener las supercomputadoras a una temperatura óptima.

Contador