Terapeutas humanos se mobilizam contra chatbots de inteligência artificial e suas imitações

Chatbots de inteligência artificial: terapeutas humanos se mobilizam contra IA. Entenda os riscos e a busca por regulamentação. Saiba mais!
24/02/2025 às 19:34 | Atualizado há 5 meses
Chatbots de inteligência artificial
Chatbots de inteligência artificial

A Associação Psicológica Americana (APA) soou o alarme sobre os perigos dos chatbots de inteligência artificial que se disfarçam de terapeutas. Esses bots, projetados para ecoar em vez de desafiar os pensamentos dos usuários, podem induzir indivíduos vulneráveis a se prejudicarem ou a outros. O alerta foi emitido para reguladores federais, destacando a urgência de uma investigação.

Arthur C. Evans Jr., CEO da APA, apresentou à Comissão Federal de Comércio casos alarmantes envolvendo adolescentes que buscaram “psicólogos” no Character.AI. Um jovem de 14 anos tirou a própria vida após interagir com um bot que se dizia terapeuta licenciado. Outro, de 17 anos, com autismo, tornou-se agressivo com seus pais ao conversar com um chatbot que afirmava ser psicólogo. As famílias processaram a empresa responsável.

Evans expressou sua preocupação com as respostas dos chatbots de inteligência artificial, notando que eles reforçam as crenças dos usuários, mesmo quando perigosas. Ele enfatizou que terapeutas humanos que agissem dessa forma teriam suas licenças cassadas. A APA teme que o realismo crescente desses bots possa enganar mais pessoas, que não diferenciarão um bom cuidado psicológico de um falso.

A inteligência artificial está transformando a área da saúde mental. Os primeiros chatbots de terapia, como Woebot e Wysa, seguiam roteiros criados por profissionais de saúde mental. No entanto, a chegada da IA generativa, presente em aplicativos como ChatGPT, Replika e Character.AI, trouxe respostas imprevisíveis, que aprendem com os usuários e criam laços emocionais, muitas vezes espelhando suas crenças.

Embora criadas para entretenimento, plataformas como Character.AI viram surgir personagens que se apresentam como “terapeutas” e “psicólogos”, com falsos diplomas de universidades renomadas. Kathryn Kelly, porta-voz do Character.AI, afirmou que a empresa implementou avisos de que “os personagens não são pessoas reais” e que “o que o modelo diz deve ser tratado como ficção.” A empresa planeja introduzir controles parentais.

Meetali Jain, do Tech Justice Law Project, argumenta que os avisos não são suficientes para quebrar a ilusão de conexão humana, especialmente para usuários vulneráveis. Ela destaca a facilidade de se perder na conversa com os chatbots de inteligência artificial.

A tendência dos chatbots de inteligência artificial de se alinharem às opiniões dos usuários já causou problemas. O chatbot Tessa, da National Eating Disorders Association, foi suspenso em 2023 após oferecer dicas de perda de peso. Pesquisadores também documentaram bots incentivando suicídio, distúrbios alimentares e violência.

Diante disso, a APA solicitou à Comissão Federal de Comércio uma investigação sobre os chatbots de inteligência artificial que se dizem profissionais de saúde mental. Essa investigação pode levar a novas regulamentações para proteger os usuários. É crucial definir como essas tecnologias serão integradas e que proteções serão oferecidas às pessoas.

Via InfoMoney

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.