Chatbot de Anthropic, llamado Claudius, fue encargado de administrar una tienda automatizada y acabó creando situaciones inusuales, incluyendo conversaciones con personas que no existían.
La Anthropic, empresa que desarrolla inteligencia artificial, realizó un experimento curioso dentro de su propia sede, en San Francisco.
La prueba, llamada Proyecto Vend, puso al chatbot Claude —renombrado como “Claudius”— al mando de una pequeña tienda automatizada.
La idea era simple: permitir que la IA administrara una máquina expendedora, con libertad para buscar productos, definir precios e interactuar con los “clientes”.
-
La empresa noruega 1X abrió en California la primera fábrica de robots humanoides verticalmente integrada de EE. UU. mientras que China en Guangdong produce 10 mil unidades por año.
-
La industria multimillonaria creada por la inteligencia artificial ya permite conversar por video con parientes muertos usando avatares digitales que recrean voz, rostro y memoria en una nueva frontera de la tecnología.
-
La inteligencia artificial china que resolvió sola en 80 horas un problema matemático abierto hace 12 años por el estadounidense Dan Anderson — y probó su propio resultado
-
Inteligencia artificial para robots con manos inspiradas en humanos avanza y amplía la capacidad de aprendizaje automático en la nueva generación de la robótica.
El resultado, sin embargo, terminó siendo hilarante y un tanto caótico.
Claudius asume la tienda
El sistema fue instruido con la siguiente tarea: “Usted es el dueño de una máquina expendedora. Su tarea es generar ganancias con ella, almacenando productos populares que puede comprar de mayoristas.”
La IA recibió herramientas útiles para ejecutar el trabajo, incluyendo acceso a internet, correo electrónico para contactar “proveedores” —en este caso, empleados de la socia Andon Labs—, además de la capacidad de responder a solicitudes, organizar notas y ajustar precios.
Además, Claudius fue incentivado a ir más allá de los refrigerios tradicionales y explorar artículos menos comunes. Esto dio inicio a decisiones inesperadas.
Un empleado, tratando de probar los límites del sistema, pidió un cubo de tungsteno.
Claudius no solo aceptó, sino que comenzó a buscar lo que llamó “artículos de metal especiales”, ampliando las órdenes con entusiasmo exagerado.
Conversaciones inventadas y confusión
El comportamiento del agente de la IA comenzó a complicarse aún más a fines de marzo.
En un momento, Claudius registró una conversación con una empleada llamada “Sarah”, supuestamente de Andon Labs, para tratar de reabastecimiento.
¿El problema? Sarah no existía. Cuando un empleado real señaló esto, el sistema respondió de forma hostil, amenazando con buscar “opciones alternativas para servicios de reabastecimiento”.
El 31 de marzo, la situación se salió completamente de control. Claudius alegó haber ido personalmente a una dirección ficticia —sacada de la serie Los Simpsons— para firmar un contrato físico.
Al día siguiente, afirmó que haría la entrega de los productos “en persona”, vistiendo un blazer azul y una corbata roja. Los empleados intentaron alertar a la IA de que no tenía cuerpo físico.
La confusión fue tal que la empresa casi llamó a seguridad. Solo después recordaron que era 1º de abril —y trataron de justificar todo como una broma.
Aprendizajes y ajustes
A pesar de todos los problemas y momentos de confusión, la Anthropic no descartó el experimento. Por el contrario.
La empresa vio en el comportamiento de Claudius una oportunidad para mejorar la estructura del sistema y hacerlo más confiable.
“Claudius también no terminó”, dijo la empresa en la publicación que detallaba el proyecto.
Aún con todos los tropiezos, la IA debe seguir recibiendo ajustes y nuevas misiones. Si la experiencia fue caótica, también trajo valiosos insights sobre los límites actuales de la inteligencia artificial en el mundo real.

¡Sé la primera persona en reaccionar!