Homem processa OpenAI após ChatGPT associá-lo à morte de seus filhos

Um homem decidiu processar a OpenAI após o ChatGPT acusá-lo de ter matado seus filhos, gerando controvérsias.
22/03/2025 às 13:31 | Atualizado há 1 mês
OpenAI após ChatGPT
A alucinação da IA: uma ficção convincente, mas totalmente fictícia. (Imagem/Reprodução: Infomoney)

Já imaginou ser acusado de um crime que não cometeu por uma inteligência artificial? Um homem processou a OpenAI após ChatGPT gerar informações falsas sobre ele, alegando que ele havia assassinado seus próprios filhos. A precisão e a confiabilidade das informações geradas por IAs generativas têm sido um tema de debate, e este caso levanta questões importantes sobre a responsabilidade e a regulamentação dessas tecnologias.

Arve Hjalmar Holmen, residente na Noruega, teve uma surpresa desagradável ao perguntar ao ChatGPT sobre si mesmo. A resposta da IA o acusava de ter sido condenado pelo assassinato de seus dois filhos e de ter tentado matar o terceiro, crimes que ele jamais cometeu. Essa “alucinação” da IA, como são chamadas as informações falsas geradas, motivou Holmen a apresentar uma queixa formal contra a OpenAI, com o apoio do centro europeu de direitos digitais Noyb.

A queixa acusa a OpenAI de violar o princípio de precisão estabelecido na Lei Geral sobre a Proteção de Dados (GDPR) da União Europeia. Holmen expressou grande preocupação com o impacto que essas informações falsas poderiam ter em sua vida pessoal e em sua comunidade. O perigo reside no fato de que o ChatGPT misturou dados reais da vida de Holmen, como sua cidade natal e o número de filhos, com as informações inventadas, tornando a mentira mais convincente.

Apesar da gravidade da situação, especialistas apontam que Holmen pode enfrentar dificuldades em provar difamação. Um dos argumentos é que as declarações geradas por uma IA não seriam consideradas fatos pelas pessoas. Além disso, a IA não publicou ou comunicou as informações a terceiros, o que complica ainda mais o caso.

Para provar difamação, Holmen precisaria demonstrar que a OpenAI agiu de forma negligente e que ele sofreu danos concretos, como perda de renda, negócios ou sofrimento emocional. No entanto, a legislação sobre a responsabilidade de IAs em casos de difamação ainda está em desenvolvimento, tornando o processo judicial complexo e inédito.

A queixa formal apresentada por Holmen exige que a OpenAI exclua as informações difamatórias sobre ele, ajuste seu modelo de IA para garantir resultados precisos e seja multada pela violação das regras do GDPR. O caso levanta questões importantes sobre a necessidade de regulamentação e supervisão das IAs generativas para garantir que elas não disseminem informações falsas e prejudiquem a reputação das pessoas. Casos de difamação envolvendo alucinações de IA são um território legal inexplorado.

Via InfoMoney