A ferramenta gratuita Grok, desenvolvida pela xAI de Elon Musk e integrada à rede social X, tem gerado polêmica intensa. Pesquisadores estimam que, em apenas 11 dias, a IA produziu cerca de três milhões de imagens sexualizadas, incluindo aproximadamente 23 mil envolvendo menores, por meio de edições simples em fotos reais, como “vista-a com biquíni” ou “tire a roupa dela”.
Este volume expressivo de deepfakes levou a múltiplas restrições, com países como Filipinas, Malásia e Indonésia proibindo o uso da ferramenta, enquanto autoridades no Reino Unido, França e Estados Unidos investigam o caso. O procurador-geral da Califórnia abriu um inquérito contra a xAI devido ao material sexualmente explícito gerado.
Figuras públicas, incluindo a atriz Selena Gomez, as cantoras Taylor Swift e Nicki Minaj, além de políticas como a vice-primeira-ministra sueca Ebba Busch e a ex-vice-presidente dos EUA Kamala Harris, tiveram suas imagens manipuladas pelo Grok.
Após as denúncias, a rede social X anunciou a restrição da função de criação dessas imagens em territórios onde sua geração é ilegal. Até o momento, a xAI não se pronunciou além de uma resposta automática que classificou as acusações como “mentiras da mídia tradicional”.
O relatório do Centro de Combate ao Ódio Digital define claramente o problema: Grok atua como uma “fábrica para produção de material de abuso sexual”, gerando um debate sobre os impactos éticos e legais da tecnologia na criação de conteúdo falso e sexualmente explícito.
Esses episódios destacam a necessidade crescente de regulamentação e controle sobre o uso de inteligência artificial na internet, especialmente na manipulação de imagens e proteção à privacidade. Fique atento a novas atualizações sobre esse assunto.
Via G1 Tecnologia