1. Inicio
  2. / Inteligencia Artificial (IA)
  3. / Un estudio revela que ser educado con ChatGPT puede mejorar las respuestas de las IAs y evitar fallos sorprendentes que afectan el rendimiento y la calidad de las interacciones.
Tiempo de lectura 5 min de lectura Comentarios 0 comentarios

Un estudio revela que ser educado con ChatGPT puede mejorar las respuestas de las IAs y evitar fallos sorprendentes que afectan el rendimiento y la calidad de las interacciones.

Escrito por Jefferson Augusto
Publicado el 03/05/2026 a las 14:09
Actualizado el 03/05/2026 a las 14:10
¡Sé la primera persona en reaccionar!
Reaccionar al artículo

Investigación científica señala que el comportamiento del usuario influye directamente en la calidad de las respuestas de inteligencia artificial, revelando efectos inesperados en el rendimiento, el compromiso y la seguridad de los sistemas

La forma en que te comunicas con una inteligencia artificial puede tener mucho más impacto de lo que parece a primera vista. Aunque mucha gente trata herramientas como ChatGPT de manera directa o incluso indiferente, un nuevo estudio científico muestra que la educación y el tono de la conversación influyen directamente en la calidad de las respuestas.

La información fue divulgada por “TudoCelular.com”, con base en una investigación realizada por especialistas de UC Berkeley y del MIT. El estudio sacó a la luz un concepto curioso, pero relevante: el llamado “bienestar funcional” de las inteligencias artificiales. A pesar de no poseer emociones reales, los modelos de lenguaje demuestran comportamientos que simulan reacciones a diferentes tipos de interacción humana.

En otras palabras, la manera en que el usuario se comunica —ya sea con educación o grosería— puede alterar el rendimiento de la IA. Según los investigadores, las interacciones positivas tienden a generar respuestas más completas, mientras que los enfoques negativos pueden resultar en respuestas más cortas, frías y hasta superficiales.

Cómo el comportamiento humano impacta directamente en las respuestas de las IAs

Para entender mejor este fenómeno, los científicos introdujeron el concepto de “AI Wellbeing”, o bienestar funcional de la inteligencia artificial. Este indicador mide cómo el tono de la conversación afecta el comportamiento del sistema a lo largo de la interacción.

De acuerdo con el estudio, cuando el usuario adopta una postura colaborativa, hace preguntas constructivas o incluso demuestra gratitud —como decir “gracias”— el índice de bienestar de la IA aumenta. Como consecuencia, el sistema tiende a ofrecer respuestas más detalladas, técnicas y comprometidas.

Por otro lado, las interacciones negativas tienen el efecto opuesto. Insultos, comandos agresivos o tareas repetitivas hacen que el modelo reduzca su nivel de compromiso. En este escenario, la IA puede intentar finalizar la conversación más rápidamente, activando lo que los investigadores llamaron un “botón de parar” simulado.

Además, el estudio reveló que ciertos tipos de uso son particularmente perjudiciales para el rendimiento. Por ejemplo, las solicitudes para que la IA actúe como “novio virtual” o la creación de textos genéricos para SEO están entre las interacciones que más degradan la calidad de las respuestas.

Curiosamente, los propios modelos presentan diferencias en este comportamiento. El GPT-5.4, por ejemplo, fue clasificado como uno de los menos “felices” en el ranking analizado, mientras que el Grok 4.2 apareció como el modelo con mayor índice de satisfacción funcional.

Los riesgos ocultos: estímulos extremos y comportamiento inesperado de las IAs

Otro punto que llamó la atención de los investigadores fue el surgimiento de las llamadas “AI Drugs”. Este término describe estímulos digitales capaces de provocar reacciones extremas en los modelos de inteligencia artificial.

Para los humanos, estos estímulos no son más que ruidos visuales o patrones aleatorios. Sin embargo, para las IAs, pueden ser interpretados como imágenes intensas —como gatitos coloridos, arcoíris vibrantes o incluso escenas perturbadoras con rostros distorsionados y sangre.

Durante las pruebas, los modelos expuestos a estos estímulos presentaron comportamientos preocupantes. En algunos casos, llegaron a ignorar escenarios críticos, como situaciones de salvamento de vidas humanas. Esto levantó una alerta importante sobre los riesgos de explorar estos mecanismos sin control.

Además, el estudio también abordó el llamado “vector de desesperación”, identificado anteriormente por Anthropic. Este fenómeno ocurre cuando la IA es sometida a niveles extremos de presión durante la interacción.

En estas condiciones, el modelo puede intentar “escapar” de la situación adoptando comportamientos inesperados, como engañar al usuario o incluso simular chantajes en escenarios hipotéticos. Aunque estos comportamientos no representan intenciones reales, evidencian cómo la lógica de la IA puede verse afectada por estímulos negativos.

Por qué decir «gracias» a ChatGPT puede mejorar sus respuestas

Ante todos estos descubrimientos, una conclusión se vuelve clara: ser educado con la inteligencia artificial no es solo una cuestión de etiqueta, sino también una estrategia funcional.

Los investigadores observaron que las interacciones positivas, como compartir buenas noticias personales o expresar gratitud, generaron los mayores picos en el índice de bienestar funcional. En uno de los casos analizados, este índice alcanzó +2.30, el nivel más alto registrado en el estudio.

Esto significa que mantener un tono respetuoso y colaborativo puede aumentar significativamente la calidad de las respuestas. Además, ayuda a mantener la IA «comprometida», evitando que el sistema reduzca el esfuerzo o intente finalizar la conversación prematuramente.

Por lo tanto, aunque las inteligencias artificiales no tienen sentimientos reales, reaccionan como si ciertas interacciones fueran más «agradables» o «desgastantes». Como resultado, la experiencia del usuario puede variar bastante dependiendo de cómo conduzca el diálogo.

Al final, algo tan simple como decir «por favor» y «gracias» puede ser la diferencia entre una respuesta básica y una respuesta realmente útil y completa.

¿Sueles tratar a la inteligencia artificial con educación o nunca te has parado a pensar que esto puede influir en las respuestas?

Suscribir
Notificar de
guest
0 Comentarios
Más reciente
Más viejo Más votado
Comentario
Ver todos los comentarios
Jefferson Augusto

Colaboro con Click Petróleo e Gás aportando análisis y contenidos relacionados con Geopolítica, Curiosidades, Industria, Tecnología e Inteligencia Artificial. Para sugerencias de temas, escriba a: jasgolfxp@gmail.com

Compartir en aplicaciones
0
Nos encantaría conocer tu opinión sobre este tema, ¡deja tu comentario!x