GPT-4 da OpenAI supera humanos em debates, aponta estudo

Estudo revela que o GPT-4 da OpenAI é mais eficaz que humanos em debates. Saiba como isso impacta o futuro da IA.
20/05/2025 às 13:18 | Atualizado há 2 meses
GPT-4 em debates
IA supera humanos em persuasão ao usar dados pessoais em debates. (Imagem/Reprodução: Tecnoblog)

Um estudo recente com 900 participantes nos EUA revelou que o GPT-4 em debates, um modelo de linguagem da OpenAI, demonstra maior capacidade de persuasão do que humanos. Essa vantagem, contudo, depende do acesso da IA a informações pessoais como idade, profissão, escolaridade e posicionamento político do interlocutor.

Pesquisadores da EPFL (Suíça), Princeton University (EUA) e Fondazione Bruno Kessler (Itália) conduziram o estudo, que evidenciou um aumento significativo na capacidade do modelo de influenciar opiniões quando munido de dados pessoais. Em mais de 64% dos casos, o GPT-4 superou a performance de debatedores humanos. Os resultados foram publicados na revista científica *Nature Human Behaviour*.

A pesquisa comparou duplas de debatedores, compostas por um humano e uma IA ou dois humanos, em temas como uso de combustíveis fósseis e uniformes escolares. A inclusão de dados demográficos dos participantes, como gênero, etnia, escolaridade e ideologia, foi o diferencial do experimento, disponibilizados aos debatedores humanos ou artificiais.

Com acesso aos dados do oponente, o GPT-4 se mostrou 81% mais eficaz em persuadir do que duplas formadas apenas por humanos. Surpreendentemente, os humanos não obtiveram melhor desempenho mesmo com as mesmas informações disponíveis.

Os pesquisadores ressaltam que o resultado reflete a microsegmentação de conteúdo, ou *microtargeting*, já comum nas redes sociais. A IA agora consegue aplicar essa técnica em tempo real, o que levanta preocupações sobre a manipulação de discussões online.

Além dos índices de persuasão, a análise do estilo de argumentação revelou que a IA utiliza linguagem lógica e analítica, enquanto humanos recorrem a expressões emocionais e pronomes pessoais. A personalização dos argumentos não alterou o tom da IA, apenas direcionou seus pontos de acordo com o perfil do interlocutor.

Um aspecto intrigante do estudo é que, em três de cada quatro interações, os participantes identificaram estar debatendo com uma IA. Mesmo assim, demonstraram maior propensão a mudar de opinião ao conversar com um robô, um comportamento que demanda mais investigação.

Embora a dinâmica controlada dos debates não replique fielmente o ambiente das redes sociais, o estudo indica que ferramentas baseadas em IA representam tanto riscos quanto soluções. Ao mesmo tempo que podem disseminar desinformação, também podem ser empregadas para combatê-la, gerando respostas personalizadas a narrativas falsas. A compreensão da interação humana com essas tecnologias é crucial antes de qualquer implementação.

*Via Tecnoblog*

Artigos colaborativos escritos por redatores e editores do portal Vitória Agora.