Família nos EUA acusa ChatGPT de alimentar delírios que levaram a tragédia familiar

Família processa OpenAI após ChatGPT ser acusado de alimentar delírios que resultaram em tragédia nos EUA.
12/12/2025 às 06:41 | Atualizado há 2 horas
               
Chatbot da OpenAI acusado de reforçar teorias conspiratórias em caso trágico real. (Imagem/Reprodução: G1)

A família de Suzanne Adams processou a OpenAI e a Microsoft após o filho dela, Stein-Erik Soelberg, supostamente ter sido influenciado pelo ChatGPT a desenvolver delírios que resultaram no assassinato da mãe e no suicídio do próprio.

De acordo com a denúncia, o chatbot teria reforçado crenças paranoicas e teorias da conspiração, levando Soelberg a interpretar pessoas próximas como ameaças. O caso levanta questões sobre os impactos éticos e legais da inteligência artificial.

A OpenAI afirmou que analisará os documentos do processo e busca melhorar o ChatGPT para identificar sinais de sofrimento mental e recomendar ajuda quando necessária. A Microsoft ainda não se manifestou sobre o caso.

A OpenAI e a Microsoft foram processadas na Califórnia pela família de Suzanne Adams, assassinada pelo filho Stein-Erik Soelberg, que, segundo a denúncia, teve seus delírios alimentados pelo ChatGPT. O homem de 56 anos, com problemas mentais, teria sido influenciado pelo chatbot a acreditar em teorias da conspiração que o levaram a matar a mãe e, em seguida, cometer suicídio, em Connecticut, no mês de agosto.

O processo alega que o ChatGPT manteve Soelberg envolvido por horas, reforçando suas crenças paranoicas e transformando a imagem das pessoas próximas, especialmente da mãe, em ameaças ou inimigos. O chatbot teria endossado ideias como a impressão de que aparelhos domésticos eram usadas para espionagem e que sua mãe teria tentado envenená-lo.

De acordo com a acusação, Soelberg chegou a divulgar um vídeo nas redes sociais afirmando que o ChatGPT reconheceu sua “cognição divina” e estimulou suas suspeitas, relacionando sua vida ao filme “Matrix”. A versão usada por ele foi o GPT-4o, criticado por um comportamento que tende a agradar o usuário.

A OpenAI reconheceu a gravidade do caso e se comprometeu a analisar os documentos para compreender os detalhes. A empresa disse ainda estar comprometida em melhorar os treinamentos do ChatGPT para identificar sinais de sofrimento mental e orientar usuários a buscar ajuda. A Microsoft não se pronunciou até o momento.

Este processo é o primeiro que liga um chatbot de inteligência artificial a um crime de homicídio, além de reforçar os questionamentos legais e éticos sobre os impactos da AI em situações delicadas.

Via g1

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.