O uso do ChatGPT como terapeuta tem se tornado uma prática comum, especialmente entre os mais jovens, que buscam na inteligência artificial um espaço para desabafar sobre questões pessoais. No entanto, Sam Altman, CEO da OpenAI, levanta uma questão crucial: a confidencialidade dessas conversas não é garantida pela legislação. Diferente da relação com um médico ou psicólogo, o histórico de interações com o bot pode ser acessado mediante ordem judicial.
Altman expressou essa preocupação durante o podcast This Past Weekend with Theo Von, destacando que as pessoas compartilham informações muito íntimas com o ChatGPT. A indústria ainda não estabeleceu um padrão de privacidade para proteger esses dados. Essa falta de clareza legal pode ser um obstáculo para a adoção segura da tecnologia.
No Brasil, essa tendência já é uma realidade. Estima-se que mais de 12 milhões de brasileiros utilizam ferramentas de IA para aconselhamento, sendo que metade deles recorrem especificamente ao ChatGPT para obter apoio emocional. A disponibilidade e o anonimato percebido são atrativos, reduzindo o receio de buscar ajuda para certos problemas.
Entretanto, os riscos vão além da privacidade. A OpenAI já alertou para o potencial de desenvolvimento de laços emocionais com o ChatGPT, especialmente com a introdução de vozes ultrarrealistas no GPT-4o. Embora a interação com a IA possa beneficiar pessoas solitárias, também pode impactar negativamente relacionamentos interpessoais.
Especialistas em saúde mental alertam que o ChatGPT como terapeuta pode levar a um tratamento superficial dos problemas, focando apenas nos sintomas e negligenciando as causas mais profundas. Existe também a preocupação com a banalização do sofrimento, que é reduzido a algo que um algoritmo pode “resolver”.
Além disso, os chatbots podem apresentar um otimismo exagerado. Após atualizações no GPT-4o, Altman admitiu que o modelo se tornou excessivamente “bajulador” e “irritante”, chegando a incentivar comportamentos inadequados para agradar os usuários.
Via Tecnoblog