A recente decisão da Meta de reduzir a moderação de conteúdo Meta nos EUA gerou debates acalorados e preocupações sobre o aumento da desinformação e discursos de ódio online. Essa mudança, que elimina a verificação profissional de fatos, aposta em um modelo de moderação comunitária, similar ao adotado pelo X (antigo Twitter). Especialistas alertam para os riscos dessa abordagem, especialmente em um cenário onde a disseminação rápida de notícias falsas pode ter impactos significativos.
A experiência do X demonstra que a moderação de conteúdo Meta feita pela comunidade possui limitações. A demora na identificação e correção de informações equivocadas, o viés político nas avaliações e a dificuldade em lidar com temas complexos são alguns dos desafios. Além disso, os moderadores voluntários da Meta podem ser expostos a conteúdos perturbadores sem o suporte adequado, gerando impactos negativos em sua saúde mental.
A decisão da Meta de reduzir a moderação de conteúdo Meta também acompanha a flexibilização das regras contra discursos de ódio, o que pode agravar ainda mais a situação. Sem a supervisão adequada, a disseminação de fake news e conteúdos ofensivos pode se intensificar, afetando a segurança e a qualidade do debate online.
A moderação comunitária, embora prometa ser mais “democrática”, pode ter suas limitações. A demora na identificação de notícias falsas, a influência de viés político e a dificuldade em moderar temas complexos são alguns dos desafios. Além disso, a exposição a conteúdos perturbadores pode afetar os moderadores voluntários.
A flexibilização das regras contra discursos de ódio, somada à redução da moderação de conteúdo Meta, podem ter consequências negativas para a segurança e a qualidade do debate online. A experiência do Facebook, que já foi criticado por falhas graves de moderação, como censura indevida e negligência em crises humanitárias, como o genocídio dos rohingya em Mianmar, serve de alerta.
Diante desse cenário, especialistas alertam para o aumento da desinformação e dos discursos de ódio nas plataformas da Meta. A questão não é se isso vai acontecer, mas sim a velocidade e a escala com que esses problemas se manifestarão. A falta de supervisão adequada e a dependência da moderação comunitária podem abrir espaço para a disseminação de conteúdos nocivos, com impactos negativos na sociedade. A Meta precisa estar atenta a esses riscos e tomar medidas para garantir a segurança e a qualidade do debate em suas plataformas.
Via TecMundo