quarta-feira, 8 de janeiro de 2025

Conheça o novo checador de fatos da Meta: você, NYT FSP

 Stuart A. Thompson

Kate Conger
The New York Times

Meta gostaria de apresentar seu próximo checador de fatos —aquele que identificará falsidades, escreverá correções convincentes e alertará os outros sobre conteúdos enganosos.

É você.

Mark Zuckerberg, CEO da Meta, anunciou na terça-feira (7) que estava encerrando grande parte dos esforços de moderação da empresa, como a verificação por terceiros e restrições de conteúdo.

Em vez disso, ele disse que a empresa transferirá as responsabilidades de verificação de fatos para os usuários comuns sob um modelo chamado Community Notes (notas de contexto), que foi popularizado pelo X (antigo Twitter) e permite que os usuários deixem uma checagem de informação ou correção em uma postagem de mídia social.

A imagem mostra um teclado iluminado em azul, com o logotipo do Facebook em destaque no centro, em um fundo oval azul. As teclas do teclado são visíveis, refletindo a iluminação azul.
Dona do Facebook, WhatsApp e Instagram, Meta anuncia fim da checagem de fatos - Dado Ruvic/Reuters

O anúncio sinaliza o fim de uma era na moderação de conteúdo e uma aceitação de diretrizes mais flexíveis que até mesmo Zuckerberg reconheceu que aumentariam a quantidade de conteúdo falso e enganoso na maior rede social do mundo.

"Acho que vai ser um fracasso espetacular", disse Alex Mahadevan, diretor de um programa de alfabetização midiática no Instituto Poynter chamado MediaWise, que estudou o Community Notes no X. "A plataforma agora não tem responsabilidade por realmente nada do que é dito. Eles podem transferir a responsabilidade para os próprios usuários."

Tal mudança teria sido inimaginável após as eleições presidenciais de 2016 ou mesmo 2020, quando as empresas de mídia social se viam como guerreiros relutantes na linha de frente de uma guerra de desinformação. Falsidades generalizadas durante a eleição presidencial de 2016 desencadearam uma reação pública e um debate interno nas empresas de mídia social sobre seu papel na disseminação das chamadas fake news.

As empresas responderam investindo milhões em esforços de moderação de conteúdo, pagando verificadores de fatos terceirizados, criando algoritmos complexos para restringir conteúdo tóxico e lançando uma enxurrada de rótulos de aviso para desacelerar a propagação de falsidades —medidas vistas como necessárias para restaurar a confiança pública.

Os esforços funcionaram, até certo ponto —rótulos de verificação de fatos foram eficazes em reduzir a crença em falsidades, descobriram os pesquisadores, embora fossem menos eficazes entre os norte-americanos conservadores.

Mas os esforços também transformaram as plataformas —e Zuckerberg em particular— em alvos políticos do então presidente eleito Donald Trump e seus aliados, que disseram que a moderação de conteúdo era nada menos que censura.

Agora, o ambiente político mudou. Com Trump prestes a assumir o controle da Casa Branca e dos órgãos reguladores que supervisionam a Meta, Zuckerberg mudou para reparar seu relacionamento com Trump, jantando em Mar-a-Lago, adicionando um aliado de Trump ao conselho de diretores da Meta e doando US$ 1 milhão para o fundo de inauguração de Trump.

"As eleições recentes também parecem um ponto de inflexão cultural para mais uma vez priorizar a liberdade de expressão", disse Zuckerberg em um vídeo anunciando as mudanças na moderação.

A aposta de Zuckerberg em usar o Community Notes para substituir profissionais que checam os fatos foi inspirada por um experimento semelhante no X que permitiu a Elon Musk, seu proprietário bilionário, terceirizar a verificação de fatos da empresa para os usuários.

O X agora pede aos usuários comuns que identifiquem falsidades e escrevam correções ou adicionem informações extras às postagens de mídia social. Os detalhes exatos do programa da Meta não são conhecidos, mas no X, as notas são inicialmente visíveis apenas para usuários que se registram no programa Community Notes. Uma vez que uma nota recebe votos suficientes considerando-a valiosa, ela é anexada à postagem de mídia social para que todos possam ver.

"O sonho de uma plataforma de mídia social é uma moderação completamente automatizada que, primeiro, eles não têm que assumir responsabilidade e, segundo, não têm que pagar ninguém por isso", disse Mahadevan. "Então, o Community Notes é o sonho absoluto dessas pessoas —eles basicamente tentaram criar um sistema que automatizaria a verificação de fatos."

Entenda o que são as notas de contexto que a Meta quer implementar, FSP

 Daxia Rojas

Tom Barfield
Paris | AFP

Meta anunciou nesta terça-feira (7) que encerrará seu programa de checagem de fatos para substituí-lo por um sistema de notas de contexto, semelhante ao utilizado pela rede social X (ex-Twitter).

As notas de contexto são uma ferramenta de moderação coletiva de conteúdos. Elas aparecem abaixo de algumas publicações potencialmente enganosas.

Em 2022, elas foram amplamente implementadas na rede social após a aquisição pelo bilionário Elon Musk.

Logo da Meta - Dado Ruvic/Reuters

As notas são propostas e redigidas por usuários voluntários, que precisam se inscrever previamente, e não são editadas pelas equipes do X.

Depois, "outros usuários avaliam se a nota é útil ou não, com base em critérios como a pertinência das fontes e a clareza das informações", explicou à AFP Lionel Kaplan, presidente da agência de criação de conteúdos em redes sociais Dicenda.

"Se houver avaliações positivas suficientes, a nota aparecerá abaixo do post, fornecendo informações adicionais", detalhou.

As avaliações "levam em conta não apenas o número de colaboradores que classificaram uma publicação como útil ou inútil, mas também se as pessoas que a avaliaram parecem pertencer a diferentes esferas", explica o X em seu site oficial.

O princípio é semelhante ao da Wikipédia. "Nós nos baseamos nos usuários mais ativos de uma rede social ou plataforma para melhorar a qualidade dos conteúdos", disse Kaplan.

A Meta, que anunciou que seu programa de notas será similar ao do X, considera o sistema menos parcial do que o fact-checking.

Quais são os riscos?

Facebook possui um programa de checagem de fatos em mais de 26 idiomas que remunera mais de 80 organizações de mídia em todo o mundo, incluindo a AFP, para usar suas verificações de fatos em suas plataformas, como WhatsApp e Instagram.

Com as avaliações, "o problema é que a verificação depende da multidão", aponta Christine Balagué, professora do Instituto Mines-Télécom e fundadora da rede de pesquisa "Good in Tech", que trabalha com desinformação.

"A multidão pode dizer o certo, mas também pode haver pessoas mal-intencionadas que estão ali para disseminar informações erradas", alerta.

"Essa decisão afetará os usuários que buscam informações precisas e confiáveis", comentou no X Angie Drobnic Holan, diretora americana da Rede Internacional de Fact-Checking (IFCN, na sigla em inglês).

"Os checadores nunca demonstraram parcialidade em seu trabalho, e essas críticas vêm de pessoas que acreditam que podem exagerar os fatos e mentir sem serem refutadas ou contraditadas", acrescentou, destacando o clima de pressão política nos Estados Unidos às vésperas da posse do presidente eleito Donald Trump.

Bill Adair, cofundador da IFCN, afirmou que é "preocupante ver Mark Zuckerberg ecoar os ataques políticos aos checadores, já que ele sabe que os participantes de seu programa assinaram uma carta de princípios que exige transparência e imparcialidade".

Trump, que foi especialmente crítico em relação à Meta e ao seu CEO nos últimos anos, acusando a empresa de viés progressista, declarou que "provavelmente" influenciou a decisão.

As avaliações são eficazes contra a desinformação?

Pesquisadores mostraram que as notas de contexto "reduzem a disseminação de desinformação em cerca de 20%" no X, disse Balagué.

E, embora esse sistema "não seja 100% confiável", Kaplan acredita que as notas de contexto sejam eficazes.

Ele considera que permitem processar um maior volume de informações do que o fact-checking, que é "complicado de aplicar". Também destaca o funcionamento "democrático", que permite "ter e confrontar diferentes pontos de vista".

O X, no entanto, é frequentemente acusado de permitir a difusão de informações falsas desde que Musk reduziu drasticamente as equipes de moderação.

Mas, segundo o especialista, isso se deve principalmente ao fato de que "o X incentiva o radicalismo", tornando os conteúdos falsos mais visíveis do que em outras plataformas.

A Meta informou que os usuários poderão começar a se inscrever a partir de segunda-feira para escrever notas assim que o programa for lançado, mas não forneceu detalhes sobre os critérios de participação.

A empresa também anunciou que dará aos usuários mais controle sobre a quantidade de conteúdo político que desejam ver no Facebook, Instagram ou Threads.

Resta saber se esse sistema aumentará a disseminação de informações falsas. De acordo com Kaplan, a Meta não tem necessariamente interesse em destacar conteúdos controversos, pois isso poderia desagradar os anunciantes.