Um estudo recente com 900 participantes nos EUA revelou que o GPT-4 em debates, um modelo de linguagem da OpenAI, demonstra maior capacidade de persuasão do que humanos. Essa vantagem, contudo, depende do acesso da IA a informações pessoais como idade, profissão, escolaridade e posicionamento político do interlocutor.
Pesquisadores da EPFL (Suíça), Princeton University (EUA) e Fondazione Bruno Kessler (Itália) conduziram o estudo, que evidenciou um aumento significativo na capacidade do modelo de influenciar opiniões quando munido de dados pessoais. Em mais de 64% dos casos, o GPT-4 superou a performance de debatedores humanos. Os resultados foram publicados na revista científica *Nature Human Behaviour*.
A pesquisa comparou duplas de debatedores, compostas por um humano e uma IA ou dois humanos, em temas como uso de combustíveis fósseis e uniformes escolares. A inclusão de dados demográficos dos participantes, como gênero, etnia, escolaridade e ideologia, foi o diferencial do experimento, disponibilizados aos debatedores humanos ou artificiais.
Com acesso aos dados do oponente, o GPT-4 se mostrou 81% mais eficaz em persuadir do que duplas formadas apenas por humanos. Surpreendentemente, os humanos não obtiveram melhor desempenho mesmo com as mesmas informações disponíveis.
Os pesquisadores ressaltam que o resultado reflete a microsegmentação de conteúdo, ou *microtargeting*, já comum nas redes sociais. A IA agora consegue aplicar essa técnica em tempo real, o que levanta preocupações sobre a manipulação de discussões online.
Além dos índices de persuasão, a análise do estilo de argumentação revelou que a IA utiliza linguagem lógica e analítica, enquanto humanos recorrem a expressões emocionais e pronomes pessoais. A personalização dos argumentos não alterou o tom da IA, apenas direcionou seus pontos de acordo com o perfil do interlocutor.
Um aspecto intrigante do estudo é que, em três de cada quatro interações, os participantes identificaram estar debatendo com uma IA. Mesmo assim, demonstraram maior propensão a mudar de opinião ao conversar com um robô, um comportamento que demanda mais investigação.
Embora a dinâmica controlada dos debates não replique fielmente o ambiente das redes sociais, o estudo indica que ferramentas baseadas em IA representam tanto riscos quanto soluções. Ao mesmo tempo que podem disseminar desinformação, também podem ser empregadas para combatê-la, gerando respostas personalizadas a narrativas falsas. A compreensão da interação humana com essas tecnologias é crucial antes de qualquer implementação.
*Via Tecnoblog*