Hombre de 60 Años Sufre Bromismo Tras Sustituir Sal Por Bromuro De Sodio Siguiendo Orientaciones Del ChatGPT.
Un hombre de 60 años fue internado con síntomas graves de bromismo tras consumir bromuro de sodio durante tres meses, siguiendo instrucciones obtenidas en consultas con el ChatGPT sobre cómo eliminar la sal de la dieta. El caso, publicado el 5 de agosto en el Annals of Internal Medicine, alerta sobre los riesgos de información descontextualizada obtenida a través de herramientas de inteligencia artificial.
Síntomas Graves Alertan Sobre Intoxicación
Según los médicos, el paciente presentó confusión mental, alucinaciones, letargia y paranoia, llegando a creer que un vecino lo envenenaba.

Durante la internación, intentó escapar del hospital y necesitó tratamiento contra la psicosis. Otros signos incluían acné facial, sed excesiva e insomnio, síntomas típicos del bromismo.
-
Para intentar salvar una famosa playa turística de ser engullida por el océano, India extraerá 250 mil m³ de sedimentos del fondo del mar cada año y bombeará arena por tuberías para reconstruir la costa de Visakhapatnam.
-
Pigmento más caro que el oro aparece en ataúdes romanos en Inglaterra: arqueólogos encuentran púrpura de Tiro en tejidos funerarios de 1.700 años y revelan lujo imperial enterrado en York bajo marcas químicas invisibles al ojo humano
-
En Sudán, el combustible caro, las filas y los apagones estaban asfixiando a los conductores, pero un ingeniero creó triciclos eléctricos y algunos propietarios incluso empezaron a circular con paneles solares en el techo, reduciendo costos y ayudando a los trabajadores a incluso duplicar sus ingresos diarios.
-
Autobús sin conductor, prometido como el futuro del transporte en el Reino Unido, es cancelado tras la baja demanda, aún dependía de equipo humano a bordo y se convierte en símbolo de una innovación que casi nadie quiso usar.
¿Cómo La Dieta Sin Sal Llevó A La Intoxicación?
El episodio comenzó cuando el hombre investigó los efectos del cloruro de sodio — la sal de mesa — y decidió eliminarlo completamente de su alimentación.
A continuación, buscó alternativas seguras con el ChatGPT. Entre las respuestas proporcionadas, estaba el bromuro de sodio, que comenzó a consumir a diario sin ninguna supervisión médica.
“A pesar de su potencial para servir como puente entre científicos y el público legos, la IA también conlleva el riesgo de transmitir información descontextualizada, siendo altamente improbable que un especialista médico haya recomendado bromuro de sodio a un paciente que buscaba un sustituto seguro para el cloruro de sodio”, afirmaron investigadores de la Universidad de Washington.
Riesgos Del Uso De IA En Orientaciones De Salud
Especialistas advierten que la información generada por IA puede ser imprecisa, contribuyendo al desarrollo de enfermedades evitables.
En el caso del hombre, no fue posible acceder a las conversaciones exactas con el ChatGPT, pero la cronología indica que utilizó la versión 3.5 o 4.0 de la herramienta.
En una actualización del 7 de agosto, OpenAI afirmó que el GPT-5 trajo mejoras para interacciones relacionadas con la salud, incluyendo alertas más claras sobre riesgos potenciales.
Aún así, los profesionales refuerzan que los pacientes pueden interpretar erróneamente las recomendaciones de IA, reemplazando la orientación médica por información en línea.
Alerta Para Profesionales De Salud
Con el creciente uso de inteligencia artificial, médicos y nutricionistas deben estar atentos a las fuentes de información consultadas por los pacientes.
El caso demuestra cómo cambios aparentemente simples en la dieta, como la eliminación de la sal, pueden ser peligrosos cuando se basan en respuestas automáticas sin contextualización profesional.
El episodio de bromismo también evidencia que substituciones alimenticias sin supervisión médica pueden traer graves consecuencias para el sistema nervioso central y la salud general, reforzando la importancia de consultar a especialistas antes de cualquier cambio drástico en la dieta.

-
-
2 personas reaccionaron a esto.