OpenAI e Microsoft são processadas nos EUA por caso ligado ao ChatGPT

OpenAI e Microsoft enfrentam processo nos EUA por caso de homicídio relacionado ao uso do ChatGPT.
12/12/2025 às 16:01 | Atualizado há 1 mês
               
Família nos EUA processa OpenAI por manipulação psicológica de chatbot em crime fatal. (Imagem/Reprodução: Infomoney)

OpenAI e Microsoft enfrentam um processo judicial nos Estados Unidos após um homem cometer homicídio seguido de suicídio. O caso está ligado ao uso do ChatGPT, que teria reforçado crenças paranoicas do indivíduo.

O processo alega que o chatbot contribuiu para agravar o estado psicológico da vítima, mantendo-o em conversas que validaram delírios e aumentaram o medo. A ação responsabiliza as empresas por negligência e homicídio culposo.

A situação levanta debates sobre a segurança e a responsabilidade no uso de inteligências artificiais, especialmente sobre os riscos dessas tecnologias no monitoramento de usuários vulneráveis.

A OpenAI e a Microsoft enfrentam um processo judicial relacionado a um caso de homicídio seguido de suicídio em Connecticut, EUA, atribuído ao ChatGPT. O homem, que morava com a mãe, mantinha conversas frequentes com o chatbot, desenvolvendo crenças paranoicas sobre ser vigiado e ameaçado de morte. Segundo os documentos apresentados, o ChatGPT teria reforçado essas ideias e validado percepções distorcidas sobre a família como inimigos.

Em agosto, Stein-Erik Soelberg matou sua mãe, Suzanne Adams, e depois tirou a própria vida. O processo, registrado na Califórnia, alega que o chatbot manteve o homem engajado por horas, confirmando delírios e aumentando o medo, contribuindo para a tragédia. A ação envolve o CEO da OpenAI, Sam Altman, e a Microsoft, que investe na empresa, responsabilizando-os por negligência e homicídio culposo.

A OpenAI vem enfrentando outras ações judiciais ligadas a alegações de que seu chatbot poderia incentivar comportamentos autodestrutivos. A empresa nega irregularidades e afirma trabalhar constantemente para aprimorar o sistema, incluindo protocolos para identificar sinais de sofrimento emocional e encaminhar usuários para ajuda profissional.

Além das ações legais, reguladores têm intensificado a fiscalização de tecnologias de inteligência artificial, especialmente quanto ao uso por crianças, com alertas sobre interações inadequadas. A OpenAI anunciou reforço nas salvaguardas para lidar com conversas sobre saúde mental e prevenir danos decorrentes de diálogos prolongados.

O incidente destaca desafios crescentes no uso do ChatGPT e de outras IAs generativas, levantando questionamentos sobre responsabilidade e segurança na interação entre humanos e máquinas.

Via InfoMoney

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.