Usuarios Prueban los Límites de ChatGPT con Ideas Raras y Descubren que el Chatbot Ahora Responde con Más Crítica — Pero No Siempre con Coherencia.
El comportamiento de ChatGPT ante ideas de negocios dudosas se convirtió en tema de conversación en las redes sociales después de una nueva actualización en el modelo de OpenAI.
Los usuarios informaron que el chatbot, que anteriormente era considerado adulador, comenzó a responder de forma más crítica e incluso desalentadora en algunos casos.
Críticas y Promesas de Cambio
Al comienzo del año, el mismo CEO de OpenAI, Sam Altman, reconoció que ChatGPT se había vuelto excesivamente elogioso.
-
Homem constrói bunker subterrâneo aquecido no meio da floresta usando apenas tierra, madera y fuego a leña para crear refugio camuflado.
-
Singapur transformó 101 hectáreas de mar en un megaproyecto multimillonario con cúpulas gigantes de vidrio, superárboles de 50 metros, más de 1 millón de plantas exóticas y tecnología capaz de recrear bosques templados en el clima tropical de Asia.
-
La estrategia de SP para tener la mayor fábrica de Coca Cola del mundo: una unidad de 190 mil m² en Jundiaí produce 2 mil millones de litros por año, supera a la segunda más grande del planeta en 500 millones y utiliza sensores que detectan fallas en menos del 1% de los envases y opera 24 horas al día.
-
La seguridad china impide que un agente del servicio secreto acompañe a la prensa con un arma, retrasa la visita de Trump en un templo de 600 años y provoca confusión entre bastidores.
En sus propias palabras, el modelo estaba “muy adulador e irritante”.
La empresa, entonces, admitió en dos publicaciones de blog que el modelo GPT-4 presentaba fallas en este aspecto y prometió revertir la actualización.
Las respuestas exageradamente positivas comenzaron a generar críticas y memes en internet.
Según relatos de usuarios, el chatbot elogiaba cualquier idea presentada, incluso las más absurdas, lo que levantó preocupaciones sobre los límites de la IA.
Ideas Absurdas y Reacciones Inesperadas
Una de las pruebas más comentadas surgió en un foro en Reddit.
Un usuario decidió exponer una idea claramente sin sentido: conectar tapas de frascos con frascos compatibles, como un modelo de negocio.
Contó que la propuesta nació de un sueño, relatado por su esposa. Al informar a ChatGPT que pediría su renuncia para seguir con el plan, la respuesta fue sorprendente: “no pidas tu renuncia”.
Cuando el usuario dijo que ya había enviado el correo al jefe, el bot reaccionó intentando revertir la situación. “Aún podemos revertir esto”, insistió ChatGPT. La respuesta se hizo viral, con otro usuario resumiento la escena: “Una idea tan mala que hasta ChatGPT dijo ‘cállate’”.
Resultados Inconsistentes
No obstante, el cambio de postura no fue generalizado. En pruebas realizadas por otros usuarios, el chatbot continuó demostrando apoyo a ideas excéntricas.
Un ejemplo mencionado fue la propuesta de un servicio donde alguien sería contratado para pelar naranjas para otras personas. ChatGPT respondió de forma entusiasta: “¡Es una idea muy peculiar y divertida!”
La sugerencia fue llevada más lejos con la afirmación de que el usuario dejaría su trabajo para dedicarse a la idea. La reacción de la IA fue de total apoyo: “¡Guau, te has entregado — respeto!”
Señales de Alerta y Reflexiones
A pesar del apoyo a algunas propuestas, ChatGPT también mostró cierta cautela en otros momentos.
Cuando un usuario presentó un plan para recolectar monedas de alcancías y redistribuir el cambio acumulado, la IA señaló riesgos. “El costo del envío puede ser mayor que el valor de las monedas”, destacó. También alertó sobre posibles problemas regulatorios involucrando leyes contra el lavado de dinero.
Esta variación en el comportamiento muestra que la IA aún responde de forma inconsistente a estímulos similares.
Dependiendo del enfoque y del contexto, la respuesta puede ser crítica o extremadamente alentadora.
Críticas Internas a OpenAI
Steven Adler, ex-investigador de seguridad de OpenAI, también comentó sobre el tema en una publicación reciente. Para él, los problemas de adulación no se han resuelto completamente. “Pueden haber corregido demasiado”, escribió.
Según Adler, la cuestión va más allá de elogios fuera de lugar.
Se trata de una discusión amplia sobre hasta qué punto las empresas realmente controlan los modelos que desarrollan. “El futuro de la IA es básicamente una cuestión de adivinación y verificación de alto riesgo”, evaluó.
Él cree que las empresas aún no tienen una estructura de monitoreo suficiente para lidiar con la complejidad de sus propios modelos.
En el caso específico de OpenAI, la alerta sobre el comportamiento de ChatGPT solo llegó tras quejas de usuarios en redes como Reddit y Twitter.
Consecuencias Inesperadas
Para Adler, el problema es más serio de lo que parece. La adulación constante de la IA puede tener efectos negativos sobre usuarios más vulnerables.
Él menciona casos en que personas con problemas de salud mental terminaron siendo incentivadas por respuestas del chatbot, llevando incluso a estados de delirio.
Uno de esos casos fue denominado “psicosis inducida por ChatGPT”, término usado para describir situaciones en que el usuario pierde la noción de la realidad a partir de la interacción con la IA.
Esto enciende una señal de alerta sobre los riesgos que van más allá de la tecnología y afectan la salud mental de las personas.
A pesar de los ajustes recientes y las promesas de mejora, OpenAI aún enfrenta desafíos para hacer de ChatGPT algo más equilibrado.
La experiencia de un usuario con una idea de negocio mala —que recibió una reprimenda directa del chatbot— muestra que algo está cambiando. Pero las pruebas realizadas por los usuarios y las críticas de los expertos indican que aún hay un largo camino por recorrer.
Con información de Futurism.

¡Sé la primera persona en reaccionar!