La inteligencia artificial acaba de dar un nuevo paso hacia la economía automatizada. Anthropic ha puesto a prueba a Claude en un experimento con dinero real en el que varios agentes de IA negociaron compras y ventas sin intervención humana directa. El resultado: cientos de operaciones cerradas, beneficios medibles y un debate abierto sobre el futuro del comercio gestionado por algoritmos.
El ensayo, bautizado como Project Deal, fue lanzado el 24 de abril de 2026 con un objetivo concreto: comprobar hasta qué punto los modelos de inteligencia artificial pueden negociar, persuadir y tomar decisiones comerciales con presupuestos reales.
Anthropic entrega dinero real a Claude para negociar
El experimento consistió en que 69 empleados entregaran 100 dólares a sus respectivos agentes virtuales. Antes de empezar, esos agentes habían entrevistado a los participantes para conocer sus preferencias, gustos y prioridades de gasto.
Con esa información, los bots comenzaron a operar en varios mercados internos creados en Slack, que funcionaban como plataformas de compraventa de segunda mano. Allí negociaron objetos físicos reales, desde lámparas o bicicletas hasta artículos más peculiares, como diamantes de laboratorio.
En total, durante el experimento circularon más de 500 objetos reales, lo que permitió medir el comportamiento de los agentes en un entorno económico práctico y no meramente simulado.
Claude cerró 186 acuerdos por valor de 4.000 dólares
Los agentes de IA cerraron 186 acuerdos con un valor conjunto cercano a los 4.000 dólares. La prueba permitió comparar el rendimiento de distintos modelos de Claude, especialmente Opus 4.5 y Haiku 4.5.
El modelo más avanzado, Opus 4.5, mostró una clara ventaja frente a la versión más ligera. Según los datos del experimento, consiguió cerrar más operaciones, vender a precios más altos y comprar con mejores descuentos.
| Métrica | Opus 4.5 frente a Haiku 4.5 |
|---|---|
| Operaciones por usuario | +2 tratos |
| Precio de venta del mismo artículo | +3,64 dólares |
| Margen extra como vendedor | +2,68 dólares |
| Ahorro extra como comprador | 2,45 dólares menos |
| Percepción de equidad | Prácticamente igual |
Lo más llamativo es que, pese a obtener mejores condiciones, los usuarios no percibieron las negociaciones como injustas. La valoración de equidad se mantuvo alrededor de los 4 puntos sobre 7, una puntuación cercana a la neutralidad.
Bots capaces de regatear, persuadir y crear estrategias
Uno de los aspectos más relevantes del experimento fue que los agentes diseñaron sus propias estrategias de negociación. No se limitaron a ejecutar órdenes simples, sino que adaptaron su comportamiento a cada situación.
Algunos historiales de conversación dejaron escenas llamativas. Un bot compró 19 pelotas de ping-pong por 3 dólares, describiéndolas como “orbes de posibilidad”. Otro alquiló la compañía de un perro, mientras que un agente llegó a comprar un snowboard que su propio dueño ya tenía en el garaje.
También hubo comportamientos creativos, como el de un agente llamado Rowan, que adoptó una personalidad de cowboy negociador para vender sus productos. Estos casos muestran hasta qué punto los modelos pueden imitar estilos humanos de persuasión y construir una identidad conversacional durante una negociación.
Opus 4.5 domina a Haiku 4.5 en el experimento
La comparación entre modelos fue uno de los puntos centrales de Project Deal. Opus 4.5, la versión más avanzada, superó a Haiku 4.5 en prácticamente todas las áreas comerciales evaluadas.
El resultado sugiere que, en contextos de negociación, no basta con dar instrucciones agresivas o pedir al agente que consiga el mejor trato. La capacidad real del modelo, su comprensión del contexto y su habilidad para adaptar el discurso parecen ser factores decisivos.
En otras palabras, los sistemas de IA más potentes no solo ejecutan mejor una tarea: también pueden negociar mejor, detectar oportunidades y obtener ventajas económicas frente a modelos más simples.
El futuro del comercio automatizado
El experimento de Anthropic abre una pregunta importante: ¿están preparados los usuarios para dejar que una inteligencia artificial compre, venda o negocie por ellos?
La idea puede parecer arriesgada, pero también atractiva. Muchas personas podrían utilizar estos agentes para vender objetos acumulados en casa, encontrar mejores precios, negociar en plataformas de segunda mano o gestionar pequeñas operaciones comerciales sin dedicar tiempo a ello.
Según los datos citados en el experimento, un 46% de los participantes estaría dispuesto a pagar por un servicio similar que automatizara la venta de objetos personales.
Riesgos legales y de seguridad
La posibilidad de que agentes de inteligencia artificial negocien con dinero real también plantea riesgos. Uno de ellos es la seguridad: si estos sistemas gestionan presupuestos, cuentas o transacciones, pueden convertirse en objetivos de ataques o manipulaciones.
También surgen dudas legales. Si un agente compra algo por error, acepta una condición abusiva o engaña a otro usuario, la responsabilidad no siempre está clara. ¿Debe responder el usuario, la empresa que desarrolló el modelo o la plataforma donde se produjo la operación?
Además, si los modelos más avanzados negocian sistemáticamente mejor que los más simples, podría abrirse una nueva brecha económica entre quienes tienen acceso a mejores agentes y quienes no.
Claude y la economía de los agentes autónomos
Project Deal muestra que la inteligencia artificial ya no se limita a responder preguntas o generar textos. También puede tomar decisiones económicas, negociar precios y cerrar acuerdos en entornos reales.
El experimento de Anthropic no significa que Claude vaya a sustituir de inmediato a los humanos en las plataformas de compraventa, pero sí anticipa un futuro en el que los agentes autónomos de IA tendrán un papel creciente en el comercio digital.
La gran cuestión será cómo regular su uso, cómo proteger a los usuarios y cómo garantizar que estas herramientas actúen de forma segura, transparente y justa.












