Sem programa de verificação, Meta delega aos usuários a responsabilidade de sinalizar conteúdos problemáticos.
A Meta, responsável por plataformas como Facebook e Instagram, desativou seu programa de verificação de fatos, que era gerido em parceria com organizações independentes. A decisão traz desafios para a gestão de conteúdo nas redes sociais, aumentando o risco de circulação de desinformação e discursos de ódio.
O programa, criado para monitorar e limitar a propagação de fake news, utilizava parcerias com agências de checagem para identificar e rotular publicações enganosas. Posts classificados como falsos tinham sua visibilidade reduzida e eram acompanhados por avisos sobre a inconsistência das informações.
Agora, a Meta transferiu para os próprios usuários a responsabilidade de identificar e corrigir informações problemáticas. Especialistas em comunicação digital alertam que essa mudança na gestão pode fazer com que conteúdos sensíveis, como teorias conspiratórias e desinformação política, ganhem espaço e alcance.
Embora a empresa defenda a medida como uma forma de promover o debate aberto, críticos avaliam que a falta de controle pode prejudicar a confiança na plataforma e dificultar a separação entre informação verídica e falsa.
O desafio da gestão de conteúdo passa a incluir a promoção de educação midiática e a busca por novas estratégias para mitigar os impactos da desinformação, sem comprometer a liberdade de expressão.