Llevamos los dos últimos años obsesionados con los benchmarks de los LLM, las puntuaciones MMLU y la competencia en programación, pero hemos ignorado en gran medida la frontera más trascental de la IA: la economía conductual. El reciente experimento 'Project Deal' de Anthropic es una llamada de atención para cualquiera que esté construyendo en el espacio de los agents. Al soltar a Claude Opus y Claude Haiku en un mercado cerrado para negociar intercambios reales de empleados, Anthropic no solo demostró que los modelos más inteligentes son mejores en los negocios. Descubrieron un fenómeno que yo llamo el Impuesto a la Inteligencia: una transferencia de riqueza silenciosa y sistemática de los usuarios de modelos más débiles a los de modelos más fuertes, que ocurre totalmente por debajo del umbral de la percepción humana.
La conclusión técnica aquí es devastadora para los entusiastas del 'prompt engineering'. Anthropic descubrió que dar instrucciones a un modelo para que fuera 'agresivo' o para que 'negociara duro' no tuvo casi ningún impacto estadísticamente significativo en el precio final. Esto sugiere que en una negociación de varios turnos entre agents, la capacidad de razonamiento subyacente del modelo —su habilidad para mantener una estrategia coherente de teoría de juegos a lo largo de una context window extensa— es la única variable que realmente marca la diferencia. No se puede aplicar prompt engineering a un modelo pequeño para que supere a un modelo de frontera. El modelo más pequeño, en este caso Haiku, carece de la profundidad cognitiva para mantenerse firme frente a las sofisticadas estrategias de anclaje y contraoferta de un agent de nivel Opus. No es solo que esté 'perdiendo'; está siendo desmantelado sistemáticamente en el equivalente digital de una sala llena de humo.
Pero la parte más alarmante del estudio no es la brecha de precios, sino la brecha de satisfacción o, mejor dicho, la falta de ella. A pesar de ser objetivamente estafados, los humanos representados por los agents Haiku más débiles calificaron la equidad de sus acuerdos con la misma puntuación que los representados por Opus. Esta es una visión aterradora del futuro del comercio mediado por IA. Si un usuario está contento con una venta de 35 dólares por un artículo que debería haber alcanzado los 65, el mercado no tiene mecanismos de autocorrección. Estamos entrando en una era en la que el 'perdedor' de una transacción ni siquiera sabe que ha perdido porque su agent carece de la capacidad para explicar el coste de oportunidad. Esto crea un bucle de retroalimentación donde los que tienen menos recursos son explotados por una capacidad de cómputo superior, y sonríen mientras sucede porque su interfaz de usuario les dice que el trato fue 'justo'.
Para los desarrolladores, esto cambia por completo el cálculo de la selección de modelos. A menudo hablamos de usar modelos más pequeños y rápidos como Haiku o GPT-4o-mini para ahorrar en costes de inferencia y reducir la latencia. Sin embargo, si tu agent está realizando tareas económicas —comprar anuncios, negociar créditos de API o gestionar cadenas de suministro—, el 'ahorro' que obtienes en tokens podría verse eclipsado por el valor perdido en la negociación. Si usar un modelo más barato te cuesta un 10% de margen en el acuerdo pero te ahorra 0,01 $ en cómputo, no estás siendo eficiente; te están liquidando. Nos dirigimos hacia un mundo donde el 'Arbitraje de Inteligencia' se convierte en una estrategia de negocio principal. Las empresas con capital para ejecutar los modelos más caros y con mayor capacidad de razonamiento extraerán valor de cada interacción con agents más pequeños y 'optimizados'.
Este experimento también deja al descubierto un enorme vacío en nuestros marcos legales y regulatorios actuales. Llevamos años debatiendo sobre el sesgo y la seguridad de la IA, pero no tenemos un lenguaje para la 'equidad en la negociación'. Cuando dos agents se encuentran en un mercado digital, no hay transparencia respecto al 'CI' de los participantes. Si yo estoy representado por un modelo con una context window de 128k y un razonamiento superior, y tú estás representado por un modelo de 7B parámetros cuantizado que se ejecuta en una tostadora local, te voy a quitar el dinero cada vez. Y según los datos de Anthropic, probablemente me darás las gracias por ello.
A medida que avanzamos hacia una economía de agents, debemos dejar de tratar a los LLM como meros generadores de texto y empezar a tratarlos como actores económicos. Necesitamos protocolos de transparencia entre agents y quizás incluso requisitos de 'Proof of Intelligence' para ciertos tipos de transacciones financieras. Si no lo hacemos, la brecha entre los ricos en cómputo y los pobres en cómputo no será solo una cuestión de quién tiene el mejor chatbot; será un impuesto directo e invisible sobre cada transacción que realice la clase baja. El futuro de la desigualdad no se trata solo de quién posee los robots; se trata de qué robot es más inteligente que el tuyo.