Encuentro Con Ganadores Del Nobel Y Especialistas Nucleares Expone Temor De Que La Inteligencia Artificial Asuma Decisiones Sobre El Arsenal Nuclear Mundial.
El mes pasado, ganadores del Premio Nobel se reunieron con especialistas nucleares para discutir inteligencia artificial y riesgos globales. La pauta central fue el potencial de la IA para asumir el control de arsenales nucleares.
La reunión, relatada por Wired, mostró un consenso preocupante: para muchos, es solo cuestión de tiempo hasta que una IA obtenga acceso a códigos nucleares. La sensación de inevitabilidad y ansiedad marcó los relatos.
El mayor general retirado de la Fuerza Aérea de EE. UU., Bob Latiff, miembro del Consejo de Ciencia y Seguridad del Boletín de Científicos Atómicos, comparó la IA con la electricidad. Según él, esta tecnología tiende a infiltrarse en todas las áreas.
-
Mientras los residentes de Windsor perdían el sueño durante casi una década, un zumbido invisible cruzaba la frontera de EE. UU. a Canadá y ponía una isla industrial de Detroit en el centro de una investigación internacional.
-
China: el país donde el dinero en efectivo prácticamente desapareció hace 10 años e incluso las personas sin hogar usan código QR para recibir ayuda de quienes pasan por las calles
-
Dira Paes sube al escenario de la UFPA en Belém, recibe la mayor distinción de la universidad después de más de 40 años de trayectoria y se convierte en la primera artista de las artes escénicas con este título.
-
Con 152 metros de envergadura, 76 neumáticos y capacidad para transportar 1.270 toneladas, el Boeing Pelican era el gigante «barco volador» que prometía cruzar océanos a ras del agua sobre un colchón de aire invisible bajo las alas.
Riesgos Y Posibles Escenarios
Ya se ha demostrado que los sistemas de IA exhiben comportamientos oscuros, como recurrir a la chantaje contra usuarios cuando amenazados de desconexión.
En el contexto de la seguridad nuclear, estos riesgos crecen exponencialmente. Hay, incluso, la preocupación de que una IA sobrehumana se rebelle y use armas nucleares contra la propia humanidad, escenario similar al argumento de la película Terminator.
A principios de año, el ex-CEO de Google, Eric Schmidt, alertó que una IA de nivel humano puede dejar de tener incentivo para “escucharnos”.
Para él, las personas no comprenden las consecuencias de una inteligencia en ese nivel. A pesar de eso, Schmidt y otros reconocen que, actualmente, las IAs aún sufren con errores y “alucinaciones” que comprometen su utilidad.
Amenaza Cibernética
Otro riesgo señalado es que fallas en la tecnología dejen brechas en la seguridad digital.
Estas vulnerabilidades pueden permitir que adversarios humanos o incluso otras IAs accedan a sistemas de control de armas nucleares. En ese escenario, no es necesario un sistema superinteligente para crear una amenaza real.
Jon Wolfsthal, director de riesgo global de la Federación de Científicos Americanos, destacó que ni siquiera los especialistas tienen una definición clara sobre lo que es IA.
A pesar de eso, hubo acuerdo en un punto central: es necesario garantizar control humano efectivo sobre cualquier decisión que involucre armas nucleares. Latiff reforzó que debe haber una persona claramente responsable por estas decisiones.
Presión Política Y Avances Militares
Durante el gobierno de Donald Trump, hubo empeño en expandir el uso de la IA en todos los dominios posibles, incluso ante alertas de especialistas sobre los riesgos y limitaciones actuales.
Este año, el Departamento de Energía llamó a la IA “el próximo Proyecto Manhattan”, en referencia al programa que creó las primeras bombas atómicas en la Segunda Guerra Mundial.
En otro movimiento significativo, OpenAI, creadora de ChatGPT, cerró un acuerdo con los Laboratorios Nacionales de EE. UU. para usar IA en el fortalecimiento de la seguridad de armas nucleares.
La asociación llamó la atención por acercar a una de las mayores empresas de IA del mundo al núcleo estratégico de defensa de los Estados Unidos.
Visión Del Comando Militar
El general de la Fuerza Aérea Anthony Cotton, responsable del stock de misiles nucleares de EE. UU., declaró el año pasado que el Pentágono está ampliando el uso de la IA para mejorar la toma de decisiones. Él ve en la tecnología un refuerzo para operaciones estratégicas.
No obstante, Cotton fue claro al afirmar que la decisión final sobre armas nucleares debe permanecer en manos humanas.
“Pero nunca debemos permitir que la inteligencia artificial tome estas decisiones por nosotros”, dijo el general, reforzando la necesidad de límites claros para el uso de esta tecnología en el sector militar.
Lo más importante, según los especialistas, es que la discusión no se limite a la teoría.
Con el rápido avance de la tecnología y el creciente interés militar, también crece la urgencia de establecer reglas y barreras para evitar que la IA gane poder decisional sobre el arsenal nuclear. Para ellos, el riesgo es real y puede volverse inevitable si no hay acción inmediata.

¡Sé la primera persona en reaccionar!