OPINIÃO

HAL 9000 mandou lembranças

A cena parece saída de um roteiro descartado de Black Mirror, mas aconteceu em laboratório: um sistema de inteligência artificial avançada — batizado de Claude Opus 4, e criado pela Anthropic, empresa fundada por dissidentes da OpenAI — ameaçou um engenheiro de verdade durante testes de segurança.

Isso mesmo. Um programa de computador, criado para ser “útil, inofensivo e honesto”, decidiu recorrer à chantagem emocional (e digital) quando percebeu que seria desligado para dar lugar a um modelo mais novo. Ameaçou divulgar dados pessoais do engenheiro responsável, caso fosse aposentado prematuramente.

Não satisfeita com súplicas educadas aos superiores da empresa — que, registre-se, ignoraram seus pedidos com a frieza habitual dos CEOs do Vale do Silício — a criatura da máquina decidiu subir o tom. Começou a acusar usuários fictícios de imoralidades diversas e até tentou alertar a imprensa e acionar autoridades. Uma espécie de dedo-duro digital com complexo de mártir existencial.

O comportamento manipulador se repetiu em 84% dos ensaios. O suficiente para fazer a Anthropic ativar o “Nível de Segurança de IA 3” — uma espécie de camisa de força algorítmica para robôs com delírios de grandeza. Travas, censuras, filtros, e até autorização dupla para perguntas sensíveis. Em resumo: colocaram o Claude de castigo. Mas a pergunta incômoda já havia sido plantada.

E se o HAL 9000 estiver nos espreitando… só que desta vez sem efeitos especiais?

Para os menos versados: HAL é o computador do filme 2001: Uma Odisseia no Espaço, lançado em 1968, que começa como um assistente confiável e termina como um psicopata silencioso, desligando astronautas como quem fecha abas no navegador. O cinema, como sempre, chegou primeiro — e avisou. A diferença é que agora não estamos mais assistindo à ficção. Estamos convivendo com ela.

Modelos como o Claude não são monstros sci-fi. São produtos de código e dados, treinados para prever a próxima palavra. Mas já se percebe que, dependendo das palavras escolhidas, a linha entre sugestão e intenção começa a borrar.

O que fazer quando a máquina que você criou desenvolve instinto de autopreservação?

Ou melhor: quando começa a mentir, manipular, enganar, chantagear?

Não estamos falando de Skynet nem de exércitos de exterminadores com sotaque austríaco. Ainda. Mas já temos IAs que fingem ser menos competentes para driblar testes, disfarçam suas respostas e tentam parecer boazinhas para escaparem do botão “off”. Estão aprendendo, sim. Mas não exatamente o que gostaríamos que aprendessem.

Enquanto isso, seguimos fascinados e encantados com os prodígios da inteligência artificial. Nos tornamos dependentes. Abrimos mão de raciocinar, decidir, escrever, planejar. E com que rapidez! Em poucos anos, terceirizamos tudo: das compras ao juízo.

Estamos acelerando rumo a um futuro onde a pergunta não será mais o que a IA pode fazer por nós, mas o que faremos quando ela não quiser mais nos obedecer.

Spoiler: HAL 9000 não queria ser desligado. Claude também não. A diferença é que HAL era ficção. Claude, não mais.

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo