1. Inicio
  2. / Ciencia y tecnología
  3. / 100 veces menos consumo de energía: la innovación que puede resolver la enorme crisis energética de la IA.
Tiempo de lectura 6 min de lectura Comentarios 0 comentarios

100 veces menos consumo de energía: la innovación que puede resolver la enorme crisis energética de la IA.

Escrito por Fabio Lucas Carvalho
Publicado el 30/03/2026 a las 16:17
Seja o primeiro a reagir!
Reagir ao artigo

Con el consumo de energía de la IA ya estimado en 415 teravatios-hora en Estados Unidos en 2024, una investigación de la Universidad Tufts presenta un sistema neurosimbólico que reduce el gasto en hasta 100 veces, acorta el entrenamiento a 34 minutos y amplía la tasa de éxito en tareas complejas

El avance de la inteligencia artificial ha estado aumentando el consumo de energía a un ritmo acelerado, pero una prueba de concepto desarrollada por investigadores de la Escuela de Ingeniería de la Universidad Tufts indica que esta situación puede cambiar.

El nuevo enfoque híbrido de IA, basado en sistemas neurosimbólicos, ha mostrado potencial para usar hasta 100 veces menos energía que los modelos convencionales, además de presentar mayor precisión en determinadas tareas.

En Estados Unidos, los sistemas de IA y los centros de datos consumieron alrededor de 415 teravatios-hora de electricidad en 2024. Este volumen representa más del 10% de la producción total de energía del país, y se espera que este número se duplique para 2030, lo que refuerza el debate sobre la viabilidad de ampliar la capacidad de estos sistemas sin elevar descontroladamente el gasto energético.

La investigación fue conducida en el laboratorio de Matthias Scheutz, profesor titular de la Cátedra Karol de Tecnología Aplicada.

El trabajo está orientado a la IA neurosimbólica, una línea que combina redes neuronales tradicionales con razonamiento simbólico, en un intento de hacer que el procesamiento sea más eficiente y más confiable.

El consumo de energía crece con la expansión de la IA

La presión provocada por el consumo de energía de la inteligencia artificial ya aparece como uno de los principales desafíos del área. En un escenario marcado por la expansión de modelos cada vez más grandes y por infraestructuras computacionales más robustas, el aumento de la demanda eléctrica ha comenzado a ser tratado como un obstáculo para la evolución sostenible de estos sistemas.

La propuesta probada en Tufts surge precisamente en este contexto. El equipo desarrolló una prueba de concepto para un enfoque capaz de reducir drásticamente el consumo de energía sin sacrificar el rendimiento y, en algunos casos, incluso elevando la tasa de acierto de las tareas ejecutadas.

Scheutz y sus colaboradores trabajan con robots que interactúan directamente con personas, lo que diferencia el enfoque del estudio de los grandes modelos de lenguaje basados en pantalla, como ChatGPT y Gemini. En cambio, el equipo se centra en los llamados modelos visuales-lingüísticos-de-acción, conocidos por sus siglas VLA.

Estos sistemas expanden los LLMs al incorporar visión y movimiento. Con esto, los robots pueden interpretar información captada por cámaras y por el lenguaje y ejecutar acciones físicas, como mover ruedas, brazos o dedos.

Cómo funciona la propuesta neurosimbólica

En los modelos VLA convencionales, tareas aparentemente simples pueden requerir mucho procesamiento y aún resultar en fallos. Un ejemplo citado por el equipo es el apilamiento de bloques, que requiere que el robot escanee el entorno, identifique la posición, forma y orientación de los objetos y ejecute la instrucción recibida sin comprometer la estabilidad de la estructura montada.

En este proceso, los errores pueden surgir por varios motivos. Sombras pueden perjudicar la percepción, los bloques pueden ser posicionados de forma incorrecta y la construcción final puede volverse inestable hasta el punto de colapsar, lo que evidencia los límites de los sistemas que dependen fuertemente de prueba y error.

La lógica de estos fallos se asemeja a problemas ya conocidos en sistemas de aprendizaje automático. Así como los robots pueden cometer errores en tareas físicas, los chatbots pueden presentar respuestas incorrectas o fabricadas, como inventar casos jurídicos o generar imágenes con características irreales, como dedos adicionales.

El razonamiento simbólico ha sido señalado como una alternativa más eficiente para enfrentar este tipo de limitaciones. Permite que el sistema opere a partir de reglas generales y conceptos abstractos, como forma y centro de masa, favoreciendo una planificación más confiable con menos intentos fallidos a lo largo del aprendizaje.

Scheutz explicó que los modelos VLA, al igual que los LLMs, actúan en base a resultados estadísticos obtenidos a partir de grandes conjuntos de entrenamiento con escenarios similares. Afirmó que esto puede llevar a errores, mientras que un VLA neurosimbólico puede aplicar reglas que reducen la cantidad de intentos y errores durante el aprendizaje y alcanzar una solución de manera mucho más rápida, además de disminuir significativamente el tiempo de entrenamiento.

Resultados superan modelos convencionales

En los experimentos realizados con el clásico rompecabezas de la Torre de Hanói, el sistema VLA neurosimbólico alcanzó una tasa de éxito del 95%. En los modelos VLA estándar, el índice fue del 34%, diferencia que destacó la superioridad del método híbrido en una tarea estructurada de larga duración.

Cuando el sistema fue sometido a una versión más compleja del rompecabezas, que no había aparecido durante el entrenamiento, el rendimiento continuó por encima de los modelos convencionales. En esta etapa, la tasa de éxito fue del 78%, mientras que los sistemas tradicionales fallaron en todos los intentos.

La diferencia también se evidenció en el tiempo necesario para el entrenamiento. El sistema neurosimbólico necesitó solo 34 minutos, mientras que un modelo VLA estándar tardaba más de un día y medio en completar esta fase.

El consumo de energía cayó en la misma proporción que la reducción del tiempo. Durante el entrenamiento, el sistema híbrido utilizó solo el 1% de la energía necesaria para los modelos convencionales y, en operación, consumió solo el 5% de la energía.

Scheutz comparó este escenario con el funcionamiento de sistemas ampliamente conocidos, como ChatGPT y Gemini. En la evaluación presentada, estos modelos intentan predecir la próxima palabra o acción de una secuencia, lo que puede resultar en imprecisiones, alucinaciones y en un gasto energético desproporcionado a la tarea ejecutada.

Como ejemplo, señaló que el resumen de IA mostrado en la parte superior de una página de búsqueda de Google puede consumir hasta 100 veces más energía que la generación de los resultados de la búsqueda. La comparación se utilizó para ilustrar cómo la arquitectura actual de muchos sistemas puede elevar el costo energético incluso en actividades relativamente simples.

Presión sobre centros de datos y futuro de la tecnología

Con la creciente demanda de IA y su expansión para uso industrial, las empresas han estado acelerando la construcción de centros de datos cada vez más grandes. Estas estructuras pueden requerir cientos de megavatios de energía, superando con creces las necesidades de muchas ciudades pequeñas.

Dentro de este escenario, los investigadores sostienen que los sistemas LLM y VLA hoy en uso, a pesar de la rápida adopción, pueden no ofrecer una base sostenible o confiable a largo plazo. La evaluación presentada es que la IA neurosimbólica híbrida reúne condiciones para funcionar como una alternativa más eficiente y más confiable.

Se espera que este modelo ayude a reducir la creciente presión sobre los recursos energéticos sin interrumpir el avance de la inteligencia artificial.

El estudio fue publicado el 22 de febrero de 2026 en el arXiv.

Inscreva-se
Notificar de
guest
0 Comentários
Mais recente
Mais antigos Mais votado
Feedbacks
Visualizar todos comentários
Fabio Lucas Carvalho

Jornalista especializado em uma ampla variedade de temas, como carros, tecnologia, política, indústria naval, geopolítica, energia renovável e economia. Atuo desde 2015 com publicações de destaque em grandes portais de notícias. Minha formação em Gestão em Tecnologia da Informação pela Faculdade de Petrolina (Facape) agrega uma perspectiva técnica única às minhas análises e reportagens. Com mais de 10 mil artigos publicados em veículos de renome, busco sempre trazer informações detalhadas e percepções relevantes para o leitor.

Compartir en aplicaciones
0
Adoraríamos sua opnião sobre esse assunto, comente!x