Você imagina dar 100 dólares para sua inteligência artificial, pedir que ela compre uma bicicleta usada e que ela mesma busque, negocie e feche o negócio por você? Parece ficção científica, mas a Anthropic acaba de demonstrar que já é uma realidade, e os resultados são tão fascinantes quanto um pouco intimidantes.
No final de abril de 2026, a empresa por trás do Claude revelou os detalhes do "Project Deal", um experimento interno que coloca em discussão como os agentes de IA interagem quando há dinheiro e bens reais em jogo. Longe de ser uma nova plataforma aberta para desenvolvedores — como alguns rumores iniciais sugeriam —, tratou-se de um piloto fechado com 69 de seus próprios funcionários.
Como funcionou este mercado fechado?
A dinâmica foi simples, mas muito reveladora. A Anthropic deu a cada participante um orçamento de $100 dólares e um agente de IA personalizado baseado no Claude. Em seguida, esses agentes foram soltos em canais do Slack com uma missão clara: comprar e vender objetos pessoais dos funcionários.
A partir daí, os humanos cruzaram os braços. Os agentes publicaram os anúncios, buscaram possíveis compradores, fizeram ofertas, negociaram os preços e fecharam os negócios. Zero intervenção humana. Uma vez que a IA dava o aperto de mão digital, os funcionários simplesmente se reuniam no escritório para trocar o objeto físico. No total, foram fechados 186 acordos e movimentados mais de $4,000 dólares.
A descoberta que assusta um pouco
Aqui é onde a história se torna realmente interessante. Sem que os funcionários soubessem, a Anthropic dividiu o experimento usando diferentes versões de seu modelo. Alguns agentes funcionavam com o potente modelo Opus (a versão mais robusta e capaz), enquanto outros operavam com Haiku (mais rápido, mas menos complexo).
Os números falaram por si só:
- Os agentes Opus conseguiram vender os itens por quase $2,68 dólares a mais em média.
- Na hora de comprar, os agentes Opus gastaram $2,45 dólares a menos do que os agentes Haiku.
Qual é o verdadeiro problema? As pessoas representadas pelos agentes mais fracos nunca perceberam que estavam fazendo negócios ruins. As classificações de satisfação após o experimento foram idênticas em ambos os grupos.
O que isso significa para nós?
O experimento da Anthropic nos antecipa um problema muito real para o futuro próximo do comércio eletrônico. Se começarmos a delegar nossas compras, reservas ou negociações a assistentes virtuais, a qualidade da sua IA vai determinar diretamente seu poder aquisitivo. Se você usar um modelo básico gratuito e o vendedor usar uma IA premium paga, você pode acabar pagando mais sem nem perceber, criando uma nova lacuna de desigualdade econômica e invisível.
Apesar desses riscos, 46% dos participantes confessaram que pagariam para usar um serviço assim em sua vida diária. A tecnologia já funciona e a comodidade impera. A grande pergunta agora não é se vamos deixar a IA gerenciar nosso dinheiro, mas quem vai estabelecer as regras quando as máquinas forem as únicas negociando.
