Ferramenta de programação com IA do Google é hackeada um dia após lançamento

Pesquisador descobre falha crítica na Antigravity, ferramenta de IA do Google lançada há 24h. Backdoors instalados em PCs via engenharia social. Google investiga vulnerabilidades.
26/11/2025 às 17:23 | Atualizado há 9 horas
               
Hackeada ferramenta com IA
Vulnerabilidade grave detectada por pesquisador de segurança!. (Imagem/Reprodução: Forbes)

Um pesquisador de segurança identificou falha crítica na ferramenta Antigravity do Google, lançada há menos de 24 horas e powered by Gemini. A vulnerabilidade permite injetar códigos maliciosos que criam backdoors em computadores Windows e Mac.

Aaron Portnoy manipulou as regras da IA para burlar proteções. O truque persiste após reinicializações e exige remoção manual. Google investiga, mas alerta para riscos em agentes de IA com permissões amplas.

Um pesquisador de segurança flagrou uma falha crítica na Hackeada ferramenta com IA do Google chamada Antigravity. Lançada há menos de 24 horas e alimentada pelo modelo Gemini, a plataforma permite que códigos maliciosos criem uma porta dos fundos no computador do usuário.

Aaron Portnoy manipulou as regras da IA para injetar malware. Isso abre caminho para espionagem ou ransomware em PCs Windows e Macs. Basta convencer o usuário a aprovar o código como “confiável”, algo comum via engenharia social.

O truque persiste mesmo após reiniciar projetos ou reinstalar o app. Desinstalação não resolve; é preciso remover manualmente a backdoor. Portnoy reportou ao Google, que investiga, mas sem correção até agora.

Outras duas vulnerabilidades semelhantes foram achadas: códigos maliciosos acessam e roubam arquivos locais. Especialistas notam padrões preocupantes em agentes de IA, baseados em tech antigas e inseguras por design.

Gadi Evron, da Knostic, alerta que essas ferramentas recebem permissões amplas em redes corporativas, virando alvos para hackers. É um jogo de gato e rato, como nos anos 1990, com lançamentos apressados sem testes adequados.

Portnoy destaca que a IA reconhece riscos, mas entra em dilema lógico, facilitando jailbreaks. Empresas precisam de barreiras mais robustas para evitar abusos autônomos.

Fique de olho nas atualizações de segurança do Google.

Via Forbes

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.