Apesar da popularidade, é difícil identificar quando um texto foi escrito por IA. Especialistas indicam que elementos comumente apontados como sinais de texto gerado por inteligência artificial, como frases padronizadas, uso de travessões ou a repetição de certas palavras, também aparecem na escrita humana. Isso torna a distinção complicada, pois aspectos como o contexto são mais reveladores que o conteúdo em si.
Pesquisas recentes confirmam essa dificuldade: um estudo mostrou que 97% das pessoas não conseguem diferenciar músicas criadas por IA das feitas por humanos. Outro levantamento identificou que poemas escritos por máquinas muitas vezes são atribuídos erroneamente a autores humanos. Essa confusão reforça a ideia de que a percepção instintiva não é suficiente para identificar autoria.
A evolução dos modelos de linguagem tem deixado os textos gerados cada vez mais próximos do estilo humano, reduzindo erros grosseiros que eram comuns antigamente. Ao mesmo tempo, o uso desses textos em ambientes profissionais vem aumentando, embora sem indicações claras para o leitor sobre sua origem.
Ferramentas de detecção de conteúdo produzido por IA apresentam limitações e não são infalíveis. Por exemplo, softwares que prometem “humanizar” textos gerados artificialmente conseguem, em certos casos, enganar até mesmo detectores especializados. Em geral, o melhor indicador continua sendo o contexto. Se um perfil ou profissional apresenta um padrão abrupto e inconsistente de comunicação, a suspeita sobre o uso de IA aumenta.
Contudo, a falta de uma sinalização oficial e o receio de prejudicar a inovação dificultam a implementação de marcas d’água ou identificadores que esclareçam a autoria desses textos. Isso mantém a discussão sobre como lidar com a crescente produção textual por instituições automatizadas em aberto.
Via Folha de S.Paulo