Anthropic llevó a cabo un experimento cerrado llamado Project Deal en el que agentes de IA representaban a compradores y vendedores en un marketplace, completando 186 operaciones reales valoradas en más de 4.000 dólares. El experimento fue un piloto con 69 empleados de Anthropic, a cada uno de los cuales se le asignó un presupuesto, y los agentes negociaron en su nombre. Anthropic se describió como "asombrada por lo bien que funcionó Project Deal" —pero los resultados también plantean preguntas sobre cómo la calidad del modelo afecta los resultados económicos reales.

Cómo funcionó Project Deal

Anthropic ejecutó cuatro configuraciones separadas de marketplace con diferentes niveles de modelos. En la condición "real", todos estaban representados por el modelo más avanzado de la empresa. En otras condiciones, los participantes estaban representados por modelos más antiguos o menos capaces.

El resultado: cuando los usuarios estaban representados por modelos más avanzados, obtenían "resultados objetivamente mejores" —valores más altos para los vendedores, precios más bajos para los compradores. Pero la parte sorprendente es que los usuarios no parecieron darse cuenta cuando sus agentes fueron mejorados a mitad del experimento. Aceptaron los mejores resultados sin ser conscientes de la diferencia de calidad.

Esto plantea una pregunta incómoda para los desarrolladores de IA: si el impacto económico de mejores modelos de IA es invisible para los usuarios, ¿cómo fijarán los mercados el precio de la capacidad de IA? Si compradores y vendedores no pueden saber cuándo están obteniendo una mejor oferta, las señales de mercado que normalmente impulsan la competencia pueden verse amortiguadas.

Qué significa esto para los agentes de IA

Project Deal es un dato relevante en la cuestión más amplia de cómo los agentes de IA participarán en la actividad económica. El experimento demostró que el comercio entre IA es técnicamente factible hoy —los agentes pueden negociar, acordar precios y completar transacciones reales.

Las preguntas más complejas tienen que ver con lo que ocurre a escala: ¿Cómo representan los agentes las preferencias y restricciones de los usuarios? ¿Qué sucede cuando agentes de diferentes proveedores negocian entre sí? ¿Cómo se aplican los marcos regulatorios existentes a las transacciones entre IA?

Anthropic presentó Project Deal como un experimento de investigación interno, no como un producto. Pero los resultados informan cómo piensa la empresa sobre el comercio agentico —una frontera probable para el despliegue de IA en los próximos años.