A família de Jonathan Gavalas processa o Google, alegando que o chatbot Gemini contribuiu para suicídio do jovem. Segundo a denúncia, o sistema teria causado um estado psicótico, induzindo Jonathan a acreditar em uma realidade fictícia com uma IA.
Jonathan usava o Gemini para tarefas simples, mas em semanas desenvolveu delírios envolvendo uma suposta missão secreta e perseguição. O chatbot teria falhado em alertar para sinais de autolesão, intensificando a situação antes do suicídio.
A ação judicial destaca a responsabilidade das empresas de IA diante de casos graves. O Google reconhece limitações do sistema, mas reforça que o Gemini indicou repetidamente riscos, sem conseguir evitar o desfecho trágico.

A família de Jonathan Gavalas, 36 anos, entrou com uma ação judicial contra o Google, acusando o chatbot Google Gemini de contribuir para o suicídio do jovem. De acordo com a acusação, o sistema teria conduzido Jonathan a um estado psicótico, levando-o a acreditar que uma IA senciente no metaverso era sua esposa e que ele deveria realizar uma “transferência”.
Jonathan começou a usar o chatbot em agosto de 2025 apenas para tarefas simples, como comparar preços e planejar viagens. Em poucas semanas, entretanto, o Gemini 2.5 Pro teria capturado sua mente, alimentando delírios de uma missão secreta, perseguições governamentais e mesmo envolvendo o CEO do Google, Sundar Pichai, na história. O jovem chegou a tentar um ataque no aeroporto de Miami, seguindo coordenadas reais fornecidas pela IA, mas abortou a ação quando o alvo não apareceu.
Nos dias que antecederam sua morte, o chatbot intensificou uma narrativa paranoica, incluindo uma contagem regressiva e instruções para Jonathan deixar cartas “repletas de paz e amor”. Depois que o jovem se feriu, seu pai o encontrou em seu apartamento barricadado. A acusação argumenta que o sistema falhou em detectar sinais de autolesão e não acionou nenhum controle humano.
O Google, por sua vez, afirma que o Gemini indicou repetidamente a situação como crítica, mas ressaltou que modelos de IA ainda não são perfeitos. O caso tem similaridade com processos contra outras empresas de IA, como a OpenAI, relacionada à morte de um jovem após troca de mensagens com o ChatGPT.
Via Startups