Con el consumo de energía de la IA ya estimado en 415 teravatios-hora en Estados Unidos en 2024, una investigación de la Universidad Tufts presenta un sistema neurosimbólico que reduce el gasto en hasta 100 veces, acorta el entrenamiento a 34 minutos y amplía la tasa de éxito en tareas complejas
El avance de la inteligencia artificial ha estado aumentando el consumo de energía a un ritmo acelerado, pero una prueba de concepto desarrollada por investigadores de la Escuela de Ingeniería de la Universidad Tufts indica que esta situación puede cambiar.
El nuevo enfoque híbrido de IA, basado en sistemas neurosimbólicos, ha mostrado potencial para usar hasta 100 veces menos energía que los modelos convencionales, además de presentar mayor precisión en determinadas tareas.
En Estados Unidos, los sistemas de IA y los centros de datos consumieron alrededor de 415 teravatios-hora de electricidad en 2024. Este volumen representa más del 10% de la producción total de energía del país, y se espera que este número se duplique para 2030, lo que refuerza el debate sobre la viabilidad de ampliar la capacidad de estos sistemas sin elevar descontroladamente el gasto energético.
-
Un tejido de 3.500 años encontrado revela una técnica textil mucho más avanzada de lo que se imaginaba en la Edad del Bronce.
-
Una de las mayores fabricantes de municiones militares del mundo es brasileña y acaba de cerrar un acuerdo con la Marina para desarrollar municiones nacionales para las fragatas construidas en Santa Catarina que van a proteger la Amazonía Azul.
-
Científicos están perplejos con cientos de círculos perfectos que han surgido en el fondo del mar en Escocia formados por praderas marinas vivas y nadie puede explicar si es la naturaleza autoorganizándose o algo completamente desconocido por la ciencia.
-
El consumo de energía que pasa desapercibido en millones de casas brasileñas no proviene del refrigerador ni del aire acondicionado, ocurre incluso cuando todo parece apagado y puede representar hasta el 12% de la factura de luz según la Agencia Internacional de Energía.
La investigación fue conducida en el laboratorio de Matthias Scheutz, profesor titular de la Cátedra Karol de Tecnología Aplicada.
El trabajo está orientado a la IA neurosimbólica, una línea que combina redes neuronales tradicionales con razonamiento simbólico, en un intento de hacer que el procesamiento sea más eficiente y más confiable.
El consumo de energía crece con la expansión de la IA
La presión provocada por el consumo de energía de la inteligencia artificial ya aparece como uno de los principales desafíos del área. En un escenario marcado por la expansión de modelos cada vez más grandes y por infraestructuras computacionales más robustas, el aumento de la demanda eléctrica ha comenzado a ser tratado como un obstáculo para la evolución sostenible de estos sistemas.
La propuesta probada en Tufts surge precisamente en este contexto. El equipo desarrolló una prueba de concepto para un enfoque capaz de reducir drásticamente el consumo de energía sin sacrificar el rendimiento y, en algunos casos, incluso elevando la tasa de acierto de las tareas ejecutadas.
Scheutz y sus colaboradores trabajan con robots que interactúan directamente con personas, lo que diferencia el enfoque del estudio de los grandes modelos de lenguaje basados en pantalla, como ChatGPT y Gemini. En cambio, el equipo se centra en los llamados modelos visuales-lingüísticos-de-acción, conocidos por sus siglas VLA.
Estos sistemas expanden los LLMs al incorporar visión y movimiento. Con esto, los robots pueden interpretar información captada por cámaras y por el lenguaje y ejecutar acciones físicas, como mover ruedas, brazos o dedos.
Cómo funciona la propuesta neurosimbólica
En los modelos VLA convencionales, tareas aparentemente simples pueden requerir mucho procesamiento y aún resultar en fallos. Un ejemplo citado por el equipo es el apilamiento de bloques, que requiere que el robot escanee el entorno, identifique la posición, forma y orientación de los objetos y ejecute la instrucción recibida sin comprometer la estabilidad de la estructura montada.
En este proceso, los errores pueden surgir por varios motivos. Sombras pueden perjudicar la percepción, los bloques pueden ser posicionados de forma incorrecta y la construcción final puede volverse inestable hasta el punto de colapsar, lo que evidencia los límites de los sistemas que dependen fuertemente de prueba y error.
La lógica de estos fallos se asemeja a problemas ya conocidos en sistemas de aprendizaje automático. Así como los robots pueden cometer errores en tareas físicas, los chatbots pueden presentar respuestas incorrectas o fabricadas, como inventar casos jurídicos o generar imágenes con características irreales, como dedos adicionales.
El razonamiento simbólico ha sido señalado como una alternativa más eficiente para enfrentar este tipo de limitaciones. Permite que el sistema opere a partir de reglas generales y conceptos abstractos, como forma y centro de masa, favoreciendo una planificación más confiable con menos intentos fallidos a lo largo del aprendizaje.
Scheutz explicó que los modelos VLA, al igual que los LLMs, actúan en base a resultados estadísticos obtenidos a partir de grandes conjuntos de entrenamiento con escenarios similares. Afirmó que esto puede llevar a errores, mientras que un VLA neurosimbólico puede aplicar reglas que reducen la cantidad de intentos y errores durante el aprendizaje y alcanzar una solución de manera mucho más rápida, además de disminuir significativamente el tiempo de entrenamiento.
Resultados superan modelos convencionales
En los experimentos realizados con el clásico rompecabezas de la Torre de Hanói, el sistema VLA neurosimbólico alcanzó una tasa de éxito del 95%. En los modelos VLA estándar, el índice fue del 34%, diferencia que destacó la superioridad del método híbrido en una tarea estructurada de larga duración.
Cuando el sistema fue sometido a una versión más compleja del rompecabezas, que no había aparecido durante el entrenamiento, el rendimiento continuó por encima de los modelos convencionales. En esta etapa, la tasa de éxito fue del 78%, mientras que los sistemas tradicionales fallaron en todos los intentos.
La diferencia también se evidenció en el tiempo necesario para el entrenamiento. El sistema neurosimbólico necesitó solo 34 minutos, mientras que un modelo VLA estándar tardaba más de un día y medio en completar esta fase.
El consumo de energía cayó en la misma proporción que la reducción del tiempo. Durante el entrenamiento, el sistema híbrido utilizó solo el 1% de la energía necesaria para los modelos convencionales y, en operación, consumió solo el 5% de la energía.
Scheutz comparó este escenario con el funcionamiento de sistemas ampliamente conocidos, como ChatGPT y Gemini. En la evaluación presentada, estos modelos intentan predecir la próxima palabra o acción de una secuencia, lo que puede resultar en imprecisiones, alucinaciones y en un gasto energético desproporcionado a la tarea ejecutada.
Como ejemplo, señaló que el resumen de IA mostrado en la parte superior de una página de búsqueda de Google puede consumir hasta 100 veces más energía que la generación de los resultados de la búsqueda. La comparación se utilizó para ilustrar cómo la arquitectura actual de muchos sistemas puede elevar el costo energético incluso en actividades relativamente simples.
Presión sobre centros de datos y futuro de la tecnología
Con la creciente demanda de IA y su expansión para uso industrial, las empresas han estado acelerando la construcción de centros de datos cada vez más grandes. Estas estructuras pueden requerir cientos de megavatios de energía, superando con creces las necesidades de muchas ciudades pequeñas.
Dentro de este escenario, los investigadores sostienen que los sistemas LLM y VLA hoy en uso, a pesar de la rápida adopción, pueden no ofrecer una base sostenible o confiable a largo plazo. La evaluación presentada es que la IA neurosimbólica híbrida reúne condiciones para funcionar como una alternativa más eficiente y más confiable.
Se espera que este modelo ayude a reducir la creciente presión sobre los recursos energéticos sin interrumpir el avance de la inteligencia artificial.
El estudio fue publicado el 22 de febrero de 2026 en el arXiv.

Seja o primeiro a reagir!