La Tecnología China Puede Revolucionar Los Modelos De Lenguaje
Investigadores chinos anunciaron en septiembre de 2025 el desarrollo del SpikingBrain1.0, un nuevo modelo de lenguaje de gran tamaño (LLM).
Promete un rendimiento hasta 100 veces superior a soluciones como ChatGPT y Copilot.
Científicos detallaron el proyecto en un artículo científico publicado en China, el cual llamó la atención mundial por adoptar un funcionamiento inspirado en el cerebro humano.
-
Mercor pagó 1,5 millones de dólares por día para que médicos, abogados y ex-banquero de Goldman Sachs enseñaran a la inteligencia artificial a hacer su trabajo y, en 17 meses, pasó de cero a 500 millones de dólares en ingresos anuales mientras sus propios contratados aceleran la sustitución de su propio trabajo.
-
Casio presenta a Moflin, una mascota robótica con inteligencia artificial creada para ofrecer confort emocional y simular un vínculo afectivo permanente.
-
Google Maps revoluciona la navegación por GPS con la inteligencia artificial Gemini, la función Ask Maps y visualización 3D avanzada para la planificación de rutas y viajes
-
China advierte a EE. UU. sobre un apocalipsis estilo “Terminator”: la disputa por la inteligencia artificial militar, las sanciones contra una startup estadounidense y el miedo a que los algoritmos decidan quién vive o muere ponen al mundo ante una pesadilla que parecía solo ficción
De esta forma, se diferencia de la arquitectura tradicional de attention.
Estructura Innovadora Basada En Disparos Selectivos
A diferencia de los sistemas actuales, que analizan todas las palabras de una frase de forma simultánea, el SpikingBrain1.0 prioriza solo los términos más cercanos.
Así, dispara cálculos de manera selectiva, sin consumir energía de modo continuo.
Debido a este enfoque, el entrenamiento puede ocurrir utilizando menos del 2% de los datos exigidos por modelos convencionales.
Aun con esta reducción, los resultados divulgados mostraron un rendimiento comparable a soluciones de código abierto ya establecidas.
Avance Con Independencia De Hardware Extranjero
Otro punto destacado es la independencia en relación a componentes internacionales.
El SpikingBrain1.0 fue probado en chips de la china MetaX, sin la necesidad de utilizar GPUs de la norteamericana NVIDIA.
Este logro técnico refuerza la meta de Pekín en reducir la dependencia de tecnologías extranjeras, especialmente en sectores estratégicos como la inteligencia artificial.
Este factor también fortalece la posición de China en medio de las tensiones comerciales globales que involucran semiconductores.
Eficiencia Energética En Debate Global
El anuncio ocurre en un momento de creciente preocupación por el gasto energético de los centros de datos que sustentan modelos de lenguaje avanzados.
Los analistas recuerdan que placas gráficas de última generación, como la RTX 5090, pueden consumir hasta 600 watts.
Este consumo exige sistemas de refrigeración robustos e impacta directamente al medio ambiente.
En este contexto, la promesa de eficiencia del SpikingBrain1.0 atrajo atención internacional.
El modelo combina reducción de consumo con mayor velocidad.
Expectativas Y Próximos Pasos
A pesar del entusiasmo, los especialistas resaltaron que los datos presentados aún necesitan, por lo tanto, de verificación independiente.
Si las proyecciones son confirmadas por pares internacionales, entonces, el SpikingBrain1.0 podría representar un hito histórico en la evolución de los modelos de lenguaje.
Además, este avance une un alto rendimiento, sostenibilidad energética e independencia tecnológica.
Con esto, China señala, así, una nueva etapa en la carrera global por la liderazgo en inteligencia artificial.
De este modo, refuerza su papel como protagonista en el escenario científico y tecnológico actual.
¿Acaso estaríamos ante un giro en el futuro de la IA?

Seja o primeiro a reagir!