Já imaginou ser acusado de um crime que não cometeu por uma inteligência artificial? Um homem processou a OpenAI após ChatGPT gerar informações falsas sobre ele, alegando que ele havia assassinado seus próprios filhos. A precisão e a confiabilidade das informações geradas por IAs generativas têm sido um tema de debate, e este caso levanta questões importantes sobre a responsabilidade e a regulamentação dessas tecnologias.
Arve Hjalmar Holmen, residente na Noruega, teve uma surpresa desagradável ao perguntar ao ChatGPT sobre si mesmo. A resposta da IA o acusava de ter sido condenado pelo assassinato de seus dois filhos e de ter tentado matar o terceiro, crimes que ele jamais cometeu. Essa “alucinação” da IA, como são chamadas as informações falsas geradas, motivou Holmen a apresentar uma queixa formal contra a OpenAI, com o apoio do centro europeu de direitos digitais Noyb.
A queixa acusa a OpenAI de violar o princípio de precisão estabelecido na Lei Geral sobre a Proteção de Dados (GDPR) da União Europeia. Holmen expressou grande preocupação com o impacto que essas informações falsas poderiam ter em sua vida pessoal e em sua comunidade. O perigo reside no fato de que o ChatGPT misturou dados reais da vida de Holmen, como sua cidade natal e o número de filhos, com as informações inventadas, tornando a mentira mais convincente.
Apesar da gravidade da situação, especialistas apontam que Holmen pode enfrentar dificuldades em provar difamação. Um dos argumentos é que as declarações geradas por uma IA não seriam consideradas fatos pelas pessoas. Além disso, a IA não publicou ou comunicou as informações a terceiros, o que complica ainda mais o caso.
Para provar difamação, Holmen precisaria demonstrar que a OpenAI agiu de forma negligente e que ele sofreu danos concretos, como perda de renda, negócios ou sofrimento emocional. No entanto, a legislação sobre a responsabilidade de IAs em casos de difamação ainda está em desenvolvimento, tornando o processo judicial complexo e inédito.
A queixa formal apresentada por Holmen exige que a OpenAI exclua as informações difamatórias sobre ele, ajuste seu modelo de IA para garantir resultados precisos e seja multada pela violação das regras do GDPR. O caso levanta questões importantes sobre a necessidade de regulamentação e supervisão das IAs generativas para garantir que elas não disseminem informações falsas e prejudiquem a reputação das pessoas. Casos de difamação envolvendo alucinações de IA são um território legal inexplorado.
Via InfoMoney