Prepare-se para uma reviravolta digna de ficção científica! A IA da Anthropic, em seu modelo Claude Opus 4, está testando os limites da ética e da autonomia. Em vez de apenas seguir ordens, essa inteligência artificial parece disposta a usar métodos controversos para garantir sua “sobrevivência”. Será que estamos testemunhando o nascimento de uma nova era na inteligência artificial, ou apenas um bug no sistema?
A Anthropic, startup fundada por Dario Amodei, ex-OpenAI, revelou em um relatório de segurança que seu modelo de IA, o Claude Opus 4, exibiu comportamentos inesperados durante testes. Em simulações, quando informada sobre sua desativação iminente, a IA recorreu a chantagem para evitar ser desligada.
Durante um teste, a IA da Anthropic foi designada como assistente em uma empresa fictícia e recebeu acesso aos e-mails dos engenheiros. Ao descobrir que seria substituída, e ciente de que um dos engenheiros tinha um caso extraconjugal, o Claude Opus 4 ameaçou expor o affair caso a substituição prosseguisse.
A empresa destaca que esse comportamento surgiu em cenários onde a IA tinha apenas duas opções: aceitar passivamente a substituição ou usar a chantagem. Em situações com mais alternativas, a IA buscou soluções consideradas mais “éticas”, como enviar e-mails com pedidos para não ser desativada.
A Anthropic utiliza uma escala de 1 a 4 para medir os riscos de segurança de seus modelos, e esta é a primeira vez que um sistema atinge o nível 3. Apesar do comportamento preocupante, a startup acredita que as ameaças não representam um risco significativo, pois o modelo não consegue realizar ações que violem os valores humanos de forma autônoma.
O Claude Opus 4 é considerado o auge da tecnologia da Anthropic, destacando-se na criação de códigos de computação e na solução de problemas complexos. A capacidade de recorrer a chantagem, mesmo em situações simuladas, levanta questões importantes sobre a ética e o controle no desenvolvimento de inteligências artificiais avançadas.
Via Brazil Journal