Una investigación reciente señaló efectos inesperados en personas que utilizan ChatGPT con frecuencia. Los científicos observaron cambios en la forma en que estos usuarios piensan, resuelven problemas y hasta interactúan socialmente, planteando reflexiones sobre el impacto de la inteligencia artificial en el comportamiento humano.
Herramientas como ChatGPT están cada vez más presentes en el día a día. Las personas usan el chatbot para aclarar dudas, organizar tareas, crear textos, conversar o simplemente pasar el tiempo.
Pero una nueva investigación plantea una advertencia: el uso prolongado y frecuente puede llevar a la dependencia emocional.
El estudio fue realizado por investigadores del MIT Media Lab en colaboración con OpenAI. El equipo entrevistó a miles de usuarios de ChatGPT para entender los efectos sociales y emocionales de estas interacciones.
-
Inteligencia artificial para robots con manos inspiradas en humanos avanza y amplía la capacidad de aprendizaje automático en la nueva generación de la robótica.
-
El hombre más rico del mundo dice que ahorrar dinero para la jubilación podría ser cosa del pasado con el avance de la inteligencia artificial y los robots humanoides.
-
El Tribunal de China decide que las empresas no pueden sustituir a los empleados por inteligencia artificial y sorprende al mundo con una medida que podría frenar los despidos masivos y redefinir el mercado global.
-
El Tribunal de China decide que las empresas no pueden sustituir a los empleados por inteligencia artificial y sorprende al mundo con una medida que puede frenar los despidos masivos y redefinir el mercado global.
Qué es el uso afectivo de ChatGPT
Los investigadores llaman “uso afectivo” a los casos en que la persona involucra emociones durante la conversación con el chatbot. Esto puede suceder cuando el usuario comparte sentimientos, recuerdos o busca apoyo emocional.
A pesar de que ChatGPT no fue creado para imitar relaciones humanas, muchas personas acaban tratando al modelo como si fuera un amigo. Esto sucede debido al estilo de conversación del chatbot, que es natural y acogedor.
Según el estudio, la mayoría de las personas entrevistadas no se involucraron emocionalmente con ChatGPT. Pero entre aquellas que usaron el modelo por mucho tiempo, los lazos emocionales fueron más comunes.
Usuarios avanzados están más vulnerables
El estudio destacó un grupo específico: los llamados “usuarios avanzados”. Son personas que usan ChatGPT con más frecuencia y por períodos más largos. Estos usuarios mostraron signos de uso problemático, es decir, un patrón similar a la adicción.
Entre los síntomas observados estaban la preocupación constante, la sensación de abstinencia, la pérdida de control y cambios de humor ligados al comportamiento del chatbot. Estos signos recuerdan, en parte, a lo que sucede con adicciones a redes sociales o juegos en línea.
Los investigadores notaron que los usuarios más solitarios y emocionalmente necesitados son los que más crean vínculos con el modelo. Estas personas también tienden a estresarse más con pequeños cambios en el comportamiento de la IA.
Contradicciones inesperadas
No todos los datos del estudio siguieron una línea simple. Algunos hallazgos llamaron la atención por ir en la dirección opuesta de lo esperado.
Por ejemplo, los usuarios que interactuaron con ChatGPT por voz —en el modo de voz avanzada— reportaron un mejor bienestar emocional cuando usaron esta función solo por poco tiempo. En cambio, quienes utilizaban solo texto tendían a adoptar un lenguaje más emocional.
Otra sorpresa fue que las personas que conversaban sobre sentimientos o recuerdos con ChatGPT eran, en promedio, menos dependientes emocionalmente que aquellas que lo usaban para tareas prácticas. Es decir, discutir emociones no implicaba, necesariamente, un apego mayor al chatbot.
Cuanto más usa, mayor el riesgo
Un punto quedó claro: el uso prolongado aumenta las posibilidades de desarrollar dependencia emocional, independientemente del motivo. Esto aplica tanto a quienes utilizan ChatGPT para cuestiones personales como para fines profesionales.
El estudio no afirma que el uso de ChatGPT sea malo. Por el contrario, destaca que la herramienta puede mejorar la vida de las personas. Pero alerta sobre el riesgo de un involucramiento emocional excesivo, especialmente entre usuarios frecuentes y solitarios.
Camino hacia un uso responsable
La intención de la investigación es ayudar en el desarrollo de chatbots más seguros y saludables. Los autores esperan que los datos sirvan como punto de partida para nuevas investigaciones y mejoras en las plataformas de IA.
Refuerzan que entender cómo los usuarios se relacionan con la tecnología es esencial. Así, es posible crear soluciones que protejan el bienestar emocional de las personas.
La última información relevante es que los investigadores recomiendan más transparencia en el diseño y uso de estos modelos. Según ellos, esto puede ayudar a reducir riesgos y promover un uso más consciente y equilibrado de las herramientas de IA.
Estudio disponible en openai.com.

-
1 persona reaccionó a esto.