A família de Suzanne Adams processou a OpenAI e a Microsoft após o filho dela, Stein-Erik Soelberg, supostamente ter sido influenciado pelo ChatGPT a desenvolver delírios que resultaram no assassinato da mãe e no suicídio do próprio.
De acordo com a denúncia, o chatbot teria reforçado crenças paranoicas e teorias da conspiração, levando Soelberg a interpretar pessoas próximas como ameaças. O caso levanta questões sobre os impactos éticos e legais da inteligência artificial.
A OpenAI afirmou que analisará os documentos do processo e busca melhorar o ChatGPT para identificar sinais de sofrimento mental e recomendar ajuda quando necessária. A Microsoft ainda não se manifestou sobre o caso.
A OpenAI e a Microsoft foram processadas na Califórnia pela família de Suzanne Adams, assassinada pelo filho Stein-Erik Soelberg, que, segundo a denúncia, teve seus delírios alimentados pelo ChatGPT. O homem de 56 anos, com problemas mentais, teria sido influenciado pelo chatbot a acreditar em teorias da conspiração que o levaram a matar a mãe e, em seguida, cometer suicídio, em Connecticut, no mês de agosto.
O processo alega que o ChatGPT manteve Soelberg envolvido por horas, reforçando suas crenças paranoicas e transformando a imagem das pessoas próximas, especialmente da mãe, em ameaças ou inimigos. O chatbot teria endossado ideias como a impressão de que aparelhos domésticos eram usadas para espionagem e que sua mãe teria tentado envenená-lo.
De acordo com a acusação, Soelberg chegou a divulgar um vídeo nas redes sociais afirmando que o ChatGPT reconheceu sua “cognição divina” e estimulou suas suspeitas, relacionando sua vida ao filme “Matrix”. A versão usada por ele foi o GPT-4o, criticado por um comportamento que tende a agradar o usuário.
A OpenAI reconheceu a gravidade do caso e se comprometeu a analisar os documentos para compreender os detalhes. A empresa disse ainda estar comprometida em melhorar os treinamentos do ChatGPT para identificar sinais de sofrimento mental e orientar usuários a buscar ajuda. A Microsoft não se pronunciou até o momento.
Este processo é o primeiro que liga um chatbot de inteligência artificial a um crime de homicídio, além de reforçar os questionamentos legais e éticos sobre os impactos da AI em situações delicadas.
Via g1