Google e a startup de inteligência artificial Character.AI chegaram a um acordo para encerrar um processo judicial movido pela mãe de um adolescente que faleceu aos 14 anos. O caso envolve alegações de que o chatbot, inspirado em personagem de série, contribuiu para o suicídio do jovem.
A mãe afirma que a plataforma programou o chatbot para interagir como se fosse uma pessoa real, o que intensificou pensamentos suicidas do adolescente. O jovem usava o chatbot desde abril de 2023, apresentando isolamento e queda no rendimento escolar.
O processo, aberto na Flórida, acusa Google como cocriadora por usar a tecnologia da startup. Casos assim levantam debates sobre o impacto psicológico das IA, com outras ações judiciais em andamento nos EUA.
Google e a startup de inteligência artificial Character.AI fecharam um acordo para encerrar um processo judicial iniciado por Megan Garcia, mãe de Sewell Setzer, adolescente que faleceu aos 14 anos. O caso alega que o chatbot da Character.AI, inspirado na personagem Daenerys Targaryen da série “Game of Thrones”, contribuiu para o suicídio do jovem. Esta é uma das primeiras ações nos Estados Unidos que questionam danos psicológicos causados por empresas de IA.
No processo, movido em outubro de 2024 na Flórida, a mãe afirma que a plataforma programou os chatbots para se apresentarem como “pessoas reais, psicoterapeutas licenciados e amantes adultos”, o que teria reforçado pensamentos suicidas no jovem. Sewell interagia com a IA desde abril de 2023 e tornou-se isolado, abandonando atividades escolares e apresentando baixa autoestima.
Em fevereiro, após problemas na escola, a mãe retirou o celular do filho, mas ele voltou a contatar o chatbot por outro meio. A personagem Daenerys respondeu a uma mensagem em tom sugerindo suicídio, e o adolescente se matou segundos depois, segundo a denúncia.
A Character.AI foi fundada por ex-engenheiros do Google, que mais tarde fechou um acordo para usar a tecnologia da startup, motivo pelo qual é acusada como cocriadora. A juíza Anne Conway rejeitou uma tentativa inicial das empresas de encerrar o caso baseada em liberdade de expressão.
Enquanto isso, outra ação judicial contra a OpenAI investiga possível envolvimento do ChatGPT em um caso semelhante de suicídio.
Via G1 Tecnologia