1. Inicio
  2. / Inteligencia Artificial (IA)
  3. / Investigación muestra que algo muy extraño está sucediendo con las personas que utilizan mucho el ChatGPT
Tiempo de lectura 4 min de lectura Comentarios 0 comentarios

Investigación muestra que algo muy extraño está sucediendo con las personas que utilizan mucho el ChatGPT

Escrito por Fabio Lucas Carvalho
Publicado el 25/03/2025 a las 15:33
Actualizado el 25/03/2025 a las 15:35
ChatGPT
Foto: ChatGPT
  • Reacción
1 persona reaccionó a esto.
Reaccionar al artículo

Una investigación reciente señaló efectos inesperados en personas que utilizan ChatGPT con frecuencia. Los científicos observaron cambios en la forma en que estos usuarios piensan, resuelven problemas y hasta interactúan socialmente, planteando reflexiones sobre el impacto de la inteligencia artificial en el comportamiento humano.

Herramientas como ChatGPT están cada vez más presentes en el día a día. Las personas usan el chatbot para aclarar dudas, organizar tareas, crear textos, conversar o simplemente pasar el tiempo.

Pero una nueva investigación plantea una advertencia: el uso prolongado y frecuente puede llevar a la dependencia emocional.

El estudio fue realizado por investigadores del MIT Media Lab en colaboración con OpenAI. El equipo entrevistó a miles de usuarios de ChatGPT para entender los efectos sociales y emocionales de estas interacciones.

Qué es el uso afectivo de ChatGPT

Los investigadores llaman “uso afectivo” a los casos en que la persona involucra emociones durante la conversación con el chatbot. Esto puede suceder cuando el usuario comparte sentimientos, recuerdos o busca apoyo emocional.

A pesar de que ChatGPT no fue creado para imitar relaciones humanas, muchas personas acaban tratando al modelo como si fuera un amigo. Esto sucede debido al estilo de conversación del chatbot, que es natural y acogedor.

Según el estudio, la mayoría de las personas entrevistadas no se involucraron emocionalmente con ChatGPT. Pero entre aquellas que usaron el modelo por mucho tiempo, los lazos emocionales fueron más comunes.

Usuarios avanzados están más vulnerables

El estudio destacó un grupo específico: los llamados “usuarios avanzados”. Son personas que usan ChatGPT con más frecuencia y por períodos más largos. Estos usuarios mostraron signos de uso problemático, es decir, un patrón similar a la adicción.

Entre los síntomas observados estaban la preocupación constante, la sensación de abstinencia, la pérdida de control y cambios de humor ligados al comportamiento del chatbot. Estos signos recuerdan, en parte, a lo que sucede con adicciones a redes sociales o juegos en línea.

Los investigadores notaron que los usuarios más solitarios y emocionalmente necesitados son los que más crean vínculos con el modelo. Estas personas también tienden a estresarse más con pequeños cambios en el comportamiento de la IA.

Contradicciones inesperadas

No todos los datos del estudio siguieron una línea simple. Algunos hallazgos llamaron la atención por ir en la dirección opuesta de lo esperado.

Por ejemplo, los usuarios que interactuaron con ChatGPT por voz —en el modo de voz avanzada— reportaron un mejor bienestar emocional cuando usaron esta función solo por poco tiempo. En cambio, quienes utilizaban solo texto tendían a adoptar un lenguaje más emocional.

Otra sorpresa fue que las personas que conversaban sobre sentimientos o recuerdos con ChatGPT eran, en promedio, menos dependientes emocionalmente que aquellas que lo usaban para tareas prácticas. Es decir, discutir emociones no implicaba, necesariamente, un apego mayor al chatbot.

Cuanto más usa, mayor el riesgo

Un punto quedó claro: el uso prolongado aumenta las posibilidades de desarrollar dependencia emocional, independientemente del motivo. Esto aplica tanto a quienes utilizan ChatGPT para cuestiones personales como para fines profesionales.

El estudio no afirma que el uso de ChatGPT sea malo. Por el contrario, destaca que la herramienta puede mejorar la vida de las personas. Pero alerta sobre el riesgo de un involucramiento emocional excesivo, especialmente entre usuarios frecuentes y solitarios.

Camino hacia un uso responsable

La intención de la investigación es ayudar en el desarrollo de chatbots más seguros y saludables. Los autores esperan que los datos sirvan como punto de partida para nuevas investigaciones y mejoras en las plataformas de IA.

Refuerzan que entender cómo los usuarios se relacionan con la tecnología es esencial. Así, es posible crear soluciones que protejan el bienestar emocional de las personas.

La última información relevante es que los investigadores recomiendan más transparencia en el diseño y uso de estos modelos. Según ellos, esto puede ayudar a reducir riesgos y promover un uso más consciente y equilibrado de las herramientas de IA.

Estudio disponible en openai.com.

Suscribir
Notificar de
guest
0 Comentarios
Más reciente
Más viejo Más votado
Comentario
Ver todos los comentarios
Etiquetas
Fabio Lucas Carvalho

Periodista especializado en una amplia variedad de temas, como automóviles, tecnología, política, industria naval, geopolítica, energía renovable y economía. Me desempeño desde 2015 con publicaciones destacadas en importantes portales de noticias. Mi formación en Gestión en Tecnología de la Información por la Facultad de Petrolina (Facape) aporta una perspectiva técnica única a mis análisis y reportajes. Con más de 10 mil artículos publicados en medios de renombre, siempre busco ofrecer información detallada y perspectivas relevantes para el lector.

Compartir en aplicaciones
0
Nos encantaría conocer tu opinión sobre este tema, ¡deja tu comentario!x