quarta-feira, 16 de novembro de 2016

Facebook e eleições: as críticas ao caso Trump e a resposta da rede social, (para ler)

FOTO: DARRON BIRGENHEIER/FLICKR/CREATIVE COMMONS
Donald Trump em campanha no estado americano de Nevada, em janeiro de 2016
 DONALD TRUMP EM CAMPANHA NO ESTADO AMERICANO DE NEVADA, EM JANEIRO DE 2016

Desde que Donald Trump foi eleito para a presidência dos EUA, contrariando pesquisas e surpreendendo analistas, funcionamento e posicionamento do Facebook têm sido questionados por grande parte da mídia americana.
Para os veículos de comunicação, a proliferação de boatos e o funcionamento do feed de notícias foram decisivos para a eleição do republicano. “Fortune”, VoxBBC, “New York Magazine”, The Intercept e Mashable estão entre os que se manifestaram sobre o tema.
Em entrevista ao programa “60 Minutes”, Trump reconheceu que as redes sociais colaboraram para sua eleição. Segundo ele, Facebook, Instagram e Twitter combinados o ajudaram a alcançar uma audiência de 28 milhões de pessoas. Só nos EUA, o Facebook tem 156 milhões de usuários. E estima-se que 62% dos americanos consumam notícias por meio das redes sociais.

A ‘ajuda’ do Facebook

PROLIFERAÇÃO DE BOATOS
A principal acusação é que o Facebook não impediu que notícias falsas se espalhassem. Histórias como compra de armas ilegais por Hillary Clinton e o apoio do Papa Francisco à candidatura de Trump foram amplamente divulgadas na rede social. Segundo reportagem do site Buzzfeed, só um grupo de jovens da Macedônia criou mais de 140 sites pró-Trump, cujo conteúdo falso era compartilhado massivamente no Facebook.
ORGANIZAÇÃO DO FEED DE NOTÍCIAS
O Facebook tem um algoritmo próprio que organiza a maneira como as informações são exibidas para cada usuário. Ele prioriza o engajamento, ou seja, a chance da pessoa curtir ou compartilhar aquela informação. Por isso, acaba exibindo ao usuário conteúdo com o qual provavelmente ele vá se identificar (usando como base a preferência de seus contatos e seus ‘likes’, por exemplo). A crítica a esse sistema é que ele priva as pessoas de terem contato com opiniões diferentes, fechando-as em bolhas de informação - o que favorece a polarização e o extremismo, uma marca da eleição de Trump. Além disso, como conteúdos que têm mais cliques e likes têm mais relevância, proliferam as informações e títulos sensacionalistas, privilegiados pelo algoritmo que entende que eles são mais relevantes.
Uma mudança recente pode ter servido para intensificar os dois fenômenos. O Facebook promoveu mudanças em seu feed de notícias em junho deste ano: informações postadas por amigos e família passaram a ter mais peso do que páginas de notícias que o usuário segue.
“Conforme a maior parte das pessoas passa a se informar por meio de plataformas digitais, esses intermediários passam a ter inegáveis poderes editoriais. Mas, diferentemente dos jornais, eles não são compreendidos ou cobrados como tais. Quem pode nos garantir que sua métrica de relevância respeita valores democráticos se não conseguimos entender que métrica é essa?”
João Carlos Magalhães
Doutorando na London School of Economics, em ensaio sobre algoritmos e democracia no Nexo

A influência dos amigos e a ‘isenção’ da plataforma

O fundador do Facebook, Mark Zuckerberg, classificou como “louca” a ideia de a rede social ter contribuído para a eleição de Trump. Em um postna própria rede social, o executivo afirmou que 99% do conteúdo que circula na rede é autêntico. Por isso, para ele, é “muito improvável” que os boatos tenham mudado o desfecho dessa eleição.
O Facebook se posiciona como uma empresa de tecnologia e uma plataforma “neutra”. Como são algoritmos que determinam a relevância do conteúdo - e esses algoritmos são alimentados pelas preferências, amigos e “likes” dos usuários - a rede social se isenta de assumir a responsabilidade editorial.
Em resposta a um usuário que afirmou que o que ele vê é justamente o contrário - 99% são mentiras - Zuckerberg disse: “dependendo das páginas que você segue e de quem seus amigos são, você verá mais ou menos. O poder do Facebook é que você controla o que você vê através de quem você escolhe se conectar”.
Zuckerberg afirmou que o Facebook não tolera boatos e tem mecanismos para que os usuários possam denunciar conteúdos falsos. Mas, para ele, identificar a “verdade” é complicado, já que mesmo veículos tradicionais podem ter notícias com erros ou detalhes omitidos. “Acredito que devemos ser extremamente cautelosos em relação a nos tornarmos os árbitros da verdade”, escreveu.

O que poderia ser feito

O Facebook, entretanto, anunciou uma medida prática: sites que compartilham conteúdo falso não poderão usar a sua rede de anúncios, o que permite que eles exibam propaganda e ganhem dinheiro com isso. A empresa seguiu o mesmo caminho do Google, que já havia determinado que sites que divulgam informações inverídicas serão proibidos de usarem o Google AdSense, sistema de remuneração por anúncios.
Os críticos à maneira como o Facebook se organiza, no entanto, dizem que são necessárias outras medidas. O site Vox, por exemplo, defende que a rede social mantenha uma equipe editorial qualificada para avaliar e classificar os conteúdos noticiosos.  A revista “Business Insider” recomenda que ele faça a classificação de conteúdos como o Google, dando mais peso para veículos relevantes ou verificados.
O site Mashable vai além: clama pela extinção do news feed, a maneira como o Facebook organiza os conteúdos exibidos pelos usuários.
Uma outra possível solução saiu de estudantes da Universidade de Princeton, nos EUA, após 36 horas de uma maratona de programação: uma extensão para Chrome que exibe, junto com a notícia, um selo que confirma se ela é verificada ou não é. Essa classificação, também feita por algoritmos, cruza as informações com outros veículos e leva em conta a relevância do site.

Nenhum comentário: