segunda-feira, 4 de agosto de 2025

Zuckerberg demitiu checadores de fatos, e testamos o substituto deles, FSP

 Geoffrey A. Fowler

Colunista de tecnologia do The Washington Post

The Washington Post

Quando uma farsa sobre Donald Trump viralizou no funeral do papa Francisco, fui às redes sociais tentar esclarecer a situação. Sou voluntário das notas da comunidade, um programa que Mark Zuckerberg anunciou em janeiro que substitui checadores de fatos por usuários para combater falsidades no FacebookInstagram e Threads.

Elaborei uma nota desmentindo imagens que supostamente mostravam Trump dormindo durante a cerimônia. Citei filmagens da transmissão ao vivo e marcação de horário com data e hora. Incluí links para pesquisas do Snopes, serviço de checagem de fatos.

Nada disso importou. Minha nota da comunidade nunca foi adicionada a uma publicação porque não houve votos suficientes de outros usuários considerando-a "útil".

Um homem está em pé, gesticulando enquanto fala em uma apresentação. Ao fundo, há um grande texto que diz 'Meta AI' em letras grandes e em negrito, com a frase 'with Llama 3.2 multimodal' logo abaixo em letras menores. O homem usa uma camiseta preta e tem cabelo cacheado e loiro.
O CEO da Meta, Mark Zuckerberg, durante conferência da empresa - Manuel Orbegozo - 25.set.2024/Reuters

Durante quatro meses, elaborei 65 notas desmentindo teorias da conspiração sobre temas que vão de acidentes aéreos ao sorvete Ben & Jerry's. Tentei sinalizar vídeos falsos gerados por inteligência artificial, ameaças virais falsas de segurança e relatórios falsos sobre uma parceria do ICE com o DoorDash.

Apenas três delas foram publicadas, todas relacionadas às inundações de julho no Texas. Isso representa uma taxa de sucesso inferior a 5%. Minhas notas propostas eram sobre tópicos que outros veículos de notícias —incluindo Snopes, NewsGuard e Bloomberg— decidiram que valiam a pena publicar suas próprias checagens de fatos.

Zuckerberg demitiu checadores de fatos profissionais, deixando os usuários para combater falsidades com notas da comunidade. Como principal linha de defesa contra boatos e mentirosos que querem atenção, as notas da comunidade parecem —até agora— estar longe de cumprir a tarefa.

Feeds cheios de informações imprecisas importam para os 54% dos adultos americanos que, segundo o Pew Research Center, obtêm notícias das redes sociais.

A decisão de Zuckerberg de demitir checadores de fatos foi amplamente criticada como uma tentativa covarde de agradar ao presidente Donald Trump. Ele disse que a Meta estava adotando o sistema colaborativo de notas da comunidade usado pelo X (ex-Twitter) de Elon Musk porque os usuários seriam mais confiáveis e menos tendenciosos que os checadores de fatos. Antes que as notas sejam publicadas nas postagens, usuários suficientes precisam concordar que são úteis. Mas o consenso acaba sendo mais complicado do que parece.

A Meta diz que meu teste não pode ser usado para avaliar seu programa de notas, que está público nos Estados Unidos há mais de quatro meses. "Notas da Comunidade é um produto totalmente novo que ainda está na fase de teste e aprendizado, e leva tempo para construir uma comunidade robusta de colaboradores. Embora haja notas sendo publicadas continuamente no Threads, Instagram e Facebook, nem toda nota será amplamente classificada como útil pela comunidade —mesmo que essas notas tenham sido escritas por um colunista do Washington Post", disse a porta-voz Erica Sackin.

A Meta se recusou a responder minhas perguntas sobre quantas notas publicou, quantos participantes estão no programa ou se há evidências de que está causando impacto, apesar de prometer ser transparente sobre o programa.

Alexios Mantzarlis, diretor da Iniciativa de Segurança, Confiança e Proteção da Cornell Tech, publicou outra avaliação independente das notas da comunidade em junho e disse que elas "ainda não estavam prontas para uso". Ele descobriu que apenas algumas das notas propostas forneciam contexto realmente valioso e algumas eram imprecisas.

"É preocupante que, quatro meses depois, eles não tenham compartilhado nenhuma atualização", disse Mantzarlis.

Isso importa porque os programas de notas da comunidade estão se espalhando além do X e Meta como uma forma de as grandes empresas de tecnologia terceirizarem o trabalho politicamente difícil de moderar conteúdo. O YouTube disse que estava testando uma versão no ano passado. E o TikTok disse em abril que estava testando um sistema chamado Footnotes.

Se as notas da comunidade estão se tornando um padrão para combater falsidades, precisamos ser honestos sobre o que elas podem e não podem fazer.

O QUE HÁ DE ERRADO COM AS NOTAS DA COMUNIDADE?

Me voluntariei para participar das notas comunitárias do Meta e inicialmente fui aceito no programa no Threads, e eventualmente também no Instagram e Facebook.

Os voluntários podem tocar em alguns botões em qualquer postagem de um usuário dos EUA e sugerir uma nota completa com texto e um link como prova. Deliberadamente elaborei notas que atravessavam o espectro político. Por exemplo, sugeri notas sobre uma imagem fabricada de Pam Bondi vista mais de meio milhão de vezes, bem como uma alegação falsa sobre a riqueza de Alexandria Ocasio-Cortez vista um quarto de milhão de vezes.

Também votei em dezenas de notas elaboradas por outros, classificando-as como "úteis" ou "não úteis".

As notas da comunidade têm vantagens. Vi usuários tentando abordar um conjunto mais amplo de tópicos do que um checador de fatos tradicional poderia ser especialista. Alguns estão tentando combater mentiras em linguagem simples e fácil de entender.

Mas descobri problemas rapidamente. Às vezes, as postagens que identifiquei para notas não eram aceitas porque eram escritas por contas fora dos EUA (que são excluídas do programa inicial da Meta) ou tinham outros problemas técnicos. Vi notas sugeridas por outros que eram de baixa qualidade, algumas com mais opiniões do que fatos, ou que tinham como fonte "pesquise no Google".

O maior desafio tem sido conseguir impacto. Comecei a contribuir em abril, e até o início de julho nada do que eu havia proposto tinha sido publicado. Apenas uma nota que eu havia classificado como útil, escrita por outra pessoa, havia sido publicada.

A Meta diz que não está selecionando quais notas são publicadas. Usa um "algoritmo de ponte" para tentar determinar quais notas são realmente úteis, em oposição a apenas populares. Esta fórmula requer que colaboradores que discordaram entre si em notas anteriores concordem que uma nova nota é útil.

Em teoria, isso é uma coisa boa. Você não quer publicar notas que contenham falsidades ou sejam simplesmente ataques a pessoas ou ideias específicas.

No entanto, o consenso é difícil de encontrar. Notas que não consegui publicar incluíam fatos que não deveriam estar em debate, incluindo a identificação de deepfakes de IA. Este sistema também não evita problemas como, por exemplo, mentiras em notícias urgentes e conspirações que se disseminam rapidamente. (A Meta ainda remove algumas falsidades diretamente, mas só em casos muito específicos quando podem levar a danos físicos ou interferir nas eleições.)


Nenhum comentário: