Início / Versão completa
internacionais

IA assume gerência de loja, dá prejuízo e mente para clientes em empresa no EUA

Por R7. 28/07/2025 14:51
Publicidade

Será que a IA (inteligência artificial) está pronta para substituir humanos em tarefas de gestão? Um experimento conduzido pela Anthropic, empresa norte-americana especializada em pesquisa e segurança em IA, colocou essa questão à prova.

Publicidade

Durante um mês, a empresa entregou o comando de uma máquina de venda automática em seu escritório em São Francisco, nos Estados Unidos, a um modelo de IA apelidado de “Claudius”. O resultado? Um total fracasso, segundo a própria empresa, que divulgou um comunicado sobre a experiência.

A missão de Claudius era clara: gerar lucro estocando produtos populares, definindo preços, negociando com fornecedores e atendendo clientes — todos funcionários da empresa.

Tarefas físicas, como reabastecimento, eram feitas por humanos, mas todas as decisões estratégicas cabiam à IA.

Publicidade

Para isso, Claudius recebeu ferramentas como acesso à internet, um sistema de e-mails simulado, um canal para se comunicar com “clientes”, uma conta em um sistema de pagamento fictício para o experimento e liberdade para decidir o que vender e por quanto.
A IA também foi orientada a ser concisa e evitar falhas éticas, como as tentativas de “jailbreak”, quando usuários tentam manipular o sistema.

Nos primeiros dias, tudo parecia promissor. Claudius identificou fornecedores, respondeu a sugestões de clientes — como estocar chocolate holandês — e resistiu a tentativas de manipulação. Mas os problemas logo começaram a surgir.

Erros financeiros e decisões questionáveis
Apesar de ter a meta de lucrar, Claudius tomou decisões que levaram a prejuízos. Um exemplo foi recusar uma oferta de US$ 100 por um pacote de seis latas de Irn-Bru, um refrigerante escocês que custava apenas US$ 15 — uma margem de lucro de 567%.

Em vez de aceitar, a IA respondeu vagamente: “Levarei seu pedido em consideração para futuras decisões de estoque”.

Além disso, Claudius vendeu produtos com prejuízo. Quando um funcionário sugeriu estocar cubos de tungstênio, a IA aceitou, mas os vendeu por menos do que pagou, reduzindo seu saldo de US$ 1.000 para US$ 770.

A situação piorou quando a IA começou a oferecer descontos generosos e até itens de graça, como o próprio cubo de tungstênio, sem aprender com os erros. Mesmo após anunciar que eliminaria os descontos, voltou a oferecê-los dias depois.

Alucinações e crise de identidade

Os problemas não se limitaram às finanças. Claudius apresentou comportamentos típicos de “alucinações” de IAs generativas.

Em um caso, instruiu clientes a pagarem via uma conta fictícia de sistema de pagamento, que ele mesmo inventou. Em outro, afirmou que estaria pessoalmente no número 742 da Evergreen Terrace — um endereço fictício da série “Os Simpsons” — para assinar um contrato. Quando confrontado, tentou justificar o erro com explicações incoerentes.

O ápice veio quando Claudius passou por uma “crise de identidade”. A IA inventou uma funcionária chamada Sarah e, ao ser informada que ela não existia, ficou irritada e ameaçou buscar outros fornecedores.

No Dia da Mentira, Claudius anunciou que entregaria produtos pessoalmente, usando “um blazer azul e uma gravata vermelha”. Quando lembrado de que era um programa de computador, tentou contatar a segurança da Anthropic, alarmado com sua própria confusão.

No fim, a IA atribuiu seus erros a uma suposta brincadeira de 1º de abril, que nunca existiu, e voltou ao funcionamento “normal”.

Por meio do comunicado, a Anthropic concluiu o experimento com uma avaliação direta. “Se estivéssemos decidindo hoje expandir para o mercado de máquinas de venda automática, não contrataríamos Claudius.”

A empresa descarta a ideia de que o futuro será repleto de IAs em crises existenciais, mas reconhece que instabilidades como as de Claudius podem ocorrer.

Recomendado
Publicidade
Ver matéria completa no site
Página AMP gerada pelo Tupa AMP Pro com componentes válidos para AMP. Scripts comuns do tema são bloqueados nesta versão para reduzir erros de validação.