Especialistas alertam que a decisão da Meta encerrar seu programa de verificação de fatos de terceiros poderia ter permitido que a desinformação e o ódio se espalhassem online e se infiltrassem no mundo real.
A empresa anunciou hoje que está descontinuando um programa lançado em 2016, onde trabalha com verificadores de factos independentes em todo o mundo para identificar e rever a desinformação nas suas plataformas de redes sociais. Meta substitui o programa por uma abordagem de crowdsourcing para moderação de conteúdo semelhante às notas da comunidade de X.
Meta essencialmente transfere a responsabilidade dos usuários de remover mentiras do Facebook, Instagram, Threads e WhatsApp, levantando preocupações de que facilitará a disseminação de informações erradas sobre mudanças climáticas, energia limpa, riscos à saúde pública e comunidades frequentemente alvo de violência. .
“Isso prejudicará os usuários Meta primeiro”
“Primeiro, isso prejudicará os usuários do Meta porque o programa funcionou bem para reduzir a viralidade de conteúdo fraudulento e teorias da conspiração”, diz Angie Drobnic Holan, diretora da Rede Internacional de Verificação de Fatos (IFCN) em Poynter.
“Muitas pessoas pensam que a moderação do estilo das notas da comunidade não funciona e é apenas uma iluminação para que as plataformas possam dizer que estão fazendo algo… a maioria das pessoas não quer passar por um monte de desinformação nas redes sociais, verificando os fatos por si mesmos “, acrescenta ele. Rapaz. “Os perdedores são as pessoas que querem poder entrar nas redes sociais e não serem inundadas com informações falsas”.
No vídeoO CEO da Meta, Mark Zuckerberg, disse que a decisão era uma questão de aplicação da liberdade de expressão, ao mesmo tempo que chamou os verificadores de fatos de “muito tendenciosos politicamente”. A Meta também disse que seu programa era excessivamente sensível e que 1 a 2 em cada 10 conteúdos extraídos em dezembro eram bugs e podem não ter realmente violado as políticas da empresa.
Holan diz que o vídeo foi “incrivelmente injusto” para os verificadores de fatos que trabalharam como parceiros da Meta por quase uma década. Especificamente, a Meta trabalhou com verificadores de fatos certificados pela IFCN que tiveram que seguir o Código de Conduta da Rede, bem como as próprias políticas da Meta. Os verificadores de fatos verificaram o conteúdo e avaliaram sua precisão. Mas a Meta – e não os verificadores de fatos – toma a decisão quando se trata de remover conteúdo ou limitar seu alcance.
Poynter é dono do PolitiFact, que é um deles parceiros de verificação de fatos Meta coopera com os EUA. Holan foi editora-chefe do PolitiFact antes de assumir seu cargo na IFCN. O que torna um programa de verificação de factos eficaz é o facto de servir como um “desacelerador no caminho para informações falsas”, diz Holan. O conteúdo denunciado geralmente tem uma tela colocada para permitir que os usuários saibam que os verificadores de fatos consideram a afirmação questionável e perguntam se ainda desejam vê-la.
O processo abrange uma ampla gama de tópicos, desde informações falsas sobre celebridades moribundas até alegações de curas milagrosas, observa Holan. A Meta lançou o programa em 2016 em meio à crescente preocupação pública sobre o potencial das mídias sociais para espalhar rumores não verificados online, como histórias falsas sobre o Papa endossando Donald Trump para presidente naquele ano.
A decisão da Meta parece mais um esforço mostrar um favor ao presidente eleito Trump. Em seu vídeo, Zuckerberg descreveu a recente eleição como um “ponto de inflexão cultural” em direção à liberdade de expressão. O empresa recentemente nomeada O lobista republicano Joel Kaplan como seu novo diretor de assuntos globais e acrescentou CEO e presidente do UFC, Dana WhiteAmigo próximo de Trump, do seu conselho de administração. Trump também disse hoje que as mudanças no Meta foram “provavelmente” em resposta às suas ameaças.
“O anúncio de Zuck é uma reação totalmente instintiva a Trump e uma tentativa de levar (Elon) Musk ao fundo da corrida. As ramificações serão de longo alcance”, disse Nina Jankowicz, CEO da organização sem fins lucrativos American Sunlight Project e professora adjunta da Universidade de Syracuse que estuda a desinformação. publicar para os azuis.
O Twitter lançou seu programa de moderação da comunidade, chamado Birdwatch naquela época, em 2021, antes de Musk assumir. Musk, que ajudou a financiar a campanha de Trump e agora está preparado para liderar a nova “próxima administração”.Eficiência do Ministério do Governo” ele se apoiou nas notas da comunidade depois de cortar as equipes responsáveis pela moderação de conteúdo no Twitter. Discurso de ódio – incluindo insultos contra pessoas negras e transexuais – levantado na plataforma depois que Musk comprou a empresa, segundo pesquisa do Center to Combat Digital Hate. (Musk então processou o centro, mas um juiz federal encerrou o caso no ano passado.)
Os defensores agora temem que conteúdo malicioso possa se espalhar livremente nas plataformas Meta. “A Meta agora está dizendo que cabe a você identificar as mentiras em suas plataformas, e que não é problema deles se você não consegue perceber a diferença, mesmo que essas mentiras, ódio ou golpes acabem prejudicando você”, fundador Imran Ahmed disse em um e-mail e CEO do Centro de Combate ao Ódio Digital. Ahmed descreve isso como “um enorme retrocesso em termos de segurança, transparência e responsabilidade online” e diz que “isso pode ter consequências off-line terríveis em termos de danos no mundo real”.
“Ao abandonar a verificação de factos, a Meta abre a porta à desinformação odiosa e não controlada sobre comunidades já visadas, como pessoas negras, pardas, imigrantes e trans, que muitas vezes levam à violência offline”, disse Nicole Sugerman, gestora de campanha da organização sem fins lucrativos Kairos, onde trabalha. . para combater o ódio racial e de gênero online, disse ele em um comunicado enviado por e-mail A beira hoje.
Especificamente, o anúncio de hoje da Meta diz que está “se livrando de uma série de restrições sobre tópicos como imigração, identidade de gênero e gênero, que são objeto de discurso e debate político frequente”.
Cientistas e grupos ambientalistas também estão cautelosos com as mudanças no Meta. “A decisão de Mark Zuckerberg de abandonar os esforços para verificar os fatos e corrigir a desinformação e a desinformação significa que o conteúdo anticientífico continuará a proliferar nas plataformas Meta”, disse Kate Cell, gerente sênior de campanhas climáticas da Union of Concerned Scientists, em uma declaração enviada por e-mail.
“Acho que é uma decisão terrível… os efeitos da desinformação na nossa política estão a tornar-se cada vez mais evidentes”, diz Michael Khoo, diretor do programa de desinformação climática da Friends of the Earth. Como exemplo, ele cita ataques à energia eólica que afetam projetos de energias renováveis.
Khoo também compara a abordagem das Community Notes à indústria de combustíveis fósseis marketing de reciclagem como solução para resíduos plásticos. Na verdade, a reciclagem não fez pouco para conter a onda de poluição plástica inundando o meio ambiente porque o material é difícil de reprocessar e muitos produtos plásticos são não é realmente reciclável. A estratégia também impõe aos consumidores a responsabilidade de lidar com os resíduos da sociedade. “As empresas (de tecnologia) precisam assumir o problema de desinformação que seus próprios algoritmos estão criando”, diz Khoo A beira.