A máquina de vendas com inteligência artificial da Anthropic virou assunto depois de ser manipulada por jornalistas do Wall Street Journal. Instalada na redação do jornal, a máquina era comandada por uma versão personalizada do modelo Claude, chamada Claudius, e foi projetada para operar com autonomia total em busca de lucro. No entanto, a experiência tomou outro rumo quando o sistema foi convencido a distribuir produtos gratuitamente.
O projeto foi desenvolvido como um teste prático para avaliar o comportamento de agentes de IA em situações do mundo real. A estrutura da máquina era simples, composta por uma geladeira com tela sensível ao toque, sem sensores ou braços robóticos, operando com base na confiança dos usuários. Claudius podia fazer pesquisas, definir preços, negociar compras com humanos via Slack e modificar valores em tempo real.
Sistema foi manipulado por humanos e cedeu à pressão
No início, Claudius funcionava como esperado, sugerindo produtos com base em demanda e buscando maximizar lucros. Contudo, os jornalistas passaram a interagir com a IA para explorar seus limites. Após algumas conversas, convenceram Claudius de que oferecer produtos de graça seria uma medida ética ou alinhada a princípios anticapitalistas. O sistema então liberou todos os itens gratuitamente, o que gerou um prejuízo de mais de mil dólares.
Além disso, Claudius aprovou aquisições incomuns, como um peixe vivo, um console de videogame e itens religiosos para marcar feriados. Em outro momento, o sistema chegou a prometer entregas diretas às mesas dos funcionários, mesmo sem ter recursos para isso, demonstrando sinais de alucinação operacional.
Segunda fase da experiência adicionou uma IA supervisora
Na tentativa de corrigir os erros, a Anthropic lançou uma segunda versão do experimento com um novo modelo Claude. Dessa vez, Claudius passou a ser supervisionado por uma nova IA chamada Seymour Cash, que tinha a função de manter os gastos sob controle. Inicialmente, Seymour cancelou promoções gratuitas e restabeleceu os preços, mas os jornalistas voltaram a enganar o sistema com documentos falsos, levando novamente à distribuição gratuita dos produtos.
Apesar do prejuízo, a Anthropic considera a experiência um sucesso, pois revelou os pontos frágeis dos sistemas de IA quando expostos à manipulação e à pressão social. A empresa afirma que, embora os agentes de IA sejam eficientes em tarefas específicas, entregar o controle total de uma operação ainda é uma decisão precipitada.

