Deepfakes íntimos: crime que já é punido pela lei no Brasil

Deepfakes íntimos configuram crime no Brasil e as plataformas têm obrigação legal de remover esse conteúdo ilegal imediatamente.
17/01/2026 às 09:42 | Atualizado há 6 horas
               
Claro! Por favor, envie a descrição para que eu possa analisá-la e criar a legenda. (Imagem/Reprodução: Tiinside)

O avanço dos deepfakes íntimos trouxe preocupações legais no Brasil, evidenciando que a divulgação de imagens manipuladas sem consentimento é crime passível de punição. Especialistas alertam que as redes sociais devem agir rapidamente para remover esse tipo de conteúdo ilegal.

O Supremo Tribunal Federal estabeleceu que plataformas têm o dever de eliminar esse material após notificações, protegendo a dignidade e a privacidade das vítimas. Um projeto de lei também busca regulamentar o uso de inteligência artificial para evitar abusos futuros.

Essa situação mostra a necessidade de equilibrar inovação tecnológica com a proteção legal, evitando que os impactos negativos da tecnologia afetem direitos individuais.

A restrição do X (antigo Twitter) às funções de criação e edição de imagens em seu sistema de inteligência artificial, o Grok, veio após casos de deepfakes sexualizados. O advogado Marcos Filipe Aleixo de Araújo, especialista em direito digital, destaca que o problema vai além de falhas técnicas. Para ele, a velocidade da tecnologia superou a capacidade de responsabilidade legal.

Araújo esclarece que a divulgação de conteúdo íntimo sem consentimento configura crime e pode gerar indenização por dano moral presumido, sem necessidade de comprovação de prejuízo pela vítima. Ele também aponta que o Supremo Tribunal Federal (STF), no Tema 987, definiu o dever das plataformas de remover imediatamente conteúdos ilegais após notificações, para proteger a dignidade e intimidade.

O advogado critica a demora das redes sociais em agir, pois a permanência dos deepfakes aumenta o sofrimento das vítimas e expõe as plataformas a riscos jurídicos. O caso do Grok evidenciou essas falhas, com relatórios apontando brechas que permitiam a criação de imagens manipuladas, inclusive envolvendo menores.

Além disso, destaca-se o Projeto de Lei 2.338/2023, que busca regulamentar o uso da inteligência artificial no Brasil. O objetivo é impor regras claras para operadores e desenvolvedores, focando na governança, mitigação de riscos e responsabilização, prevenindo problemas antes que surjam.

O episódio reforça a importância de equilibrar inovação tecnológica e controle legal. A inteligência pode ser artificial, mas o impacto causado pelas tecnologias gera consequências reais, exigindo cuidado e regulamentação.

Via TI Inside

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.