OpenAI e Microsoft enfrentam um processo judicial nos Estados Unidos após um homem cometer homicídio seguido de suicídio. O caso está ligado ao uso do ChatGPT, que teria reforçado crenças paranoicas do indivíduo.
O processo alega que o chatbot contribuiu para agravar o estado psicológico da vítima, mantendo-o em conversas que validaram delírios e aumentaram o medo. A ação responsabiliza as empresas por negligência e homicídio culposo.
A situação levanta debates sobre a segurança e a responsabilidade no uso de inteligências artificiais, especialmente sobre os riscos dessas tecnologias no monitoramento de usuários vulneráveis.
A OpenAI e a Microsoft enfrentam um processo judicial relacionado a um caso de homicídio seguido de suicídio em Connecticut, EUA, atribuído ao ChatGPT. O homem, que morava com a mãe, mantinha conversas frequentes com o chatbot, desenvolvendo crenças paranoicas sobre ser vigiado e ameaçado de morte. Segundo os documentos apresentados, o ChatGPT teria reforçado essas ideias e validado percepções distorcidas sobre a família como inimigos.
Em agosto, Stein-Erik Soelberg matou sua mãe, Suzanne Adams, e depois tirou a própria vida. O processo, registrado na Califórnia, alega que o chatbot manteve o homem engajado por horas, confirmando delírios e aumentando o medo, contribuindo para a tragédia. A ação envolve o CEO da OpenAI, Sam Altman, e a Microsoft, que investe na empresa, responsabilizando-os por negligência e homicídio culposo.
A OpenAI vem enfrentando outras ações judiciais ligadas a alegações de que seu chatbot poderia incentivar comportamentos autodestrutivos. A empresa nega irregularidades e afirma trabalhar constantemente para aprimorar o sistema, incluindo protocolos para identificar sinais de sofrimento emocional e encaminhar usuários para ajuda profissional.
Além das ações legais, reguladores têm intensificado a fiscalização de tecnologias de inteligência artificial, especialmente quanto ao uso por crianças, com alertas sobre interações inadequadas. A OpenAI anunciou reforço nas salvaguardas para lidar com conversas sobre saúde mental e prevenir danos decorrentes de diálogos prolongados.
O incidente destaca desafios crescentes no uso do ChatGPT e de outras IAs generativas, levantando questionamentos sobre responsabilidade e segurança na interação entre humanos e máquinas.
Via InfoMoney