terça-feira, 26 de dezembro de 2023

A democracia na era digital, Por Eduardo Felipe Matias, Época Negócios


 

Empresas que possuem redes sociais digitais vivem um dilema. Seu modelo de negócios, baseado na venda de publicidade direcionada, depende da captura da atenção dos usuários, e está comprovado que fake news podem garantir muitos cliques. Na eleição presidencial de 2016 nos Estados Unidos, por exemplo, a reportagem intitulada "Papa Francisco choca o mundo, endossa Donald Trump para presidente" foi compartilhada, comentada ou curtida quase 1 milhão de vezes, mesmo que o líder da Igreja Católica jamais tivesse dito isso.

Por outro lado, as plataformas têm percebido que devem evitar se transformar em ambientes tóxicos, a menos que queiram perder usuários e anunciantes. Isso é algo que o X, antigo Twitter, constatou recentemente, quando seu dono, o empresário Elon Musk, publicou um post concordando com uma teoria conspiratória antissemita. A postagem levou corporações do porte da Apple e da Disney a suspender seus gastos com publicidade naquela rede.

Talvez mais pelo receio da perda de receita do que pelo amor ao discurso saudável, diversas estratégias vêm sendo desenvolvidas para controlar o que circula nas redes. Nathaniel Persily, professor da Universidade Stanford, sintetizou as principais abordagens em inglês em sete “Ds”: deletion, demotion, delay, disclosure, diversion/dilution, deterrence e digital literacy.

A exclusão (deletion) de contas ou de conteúdo passa pela verificação inicial de usuários, primeiro passo para eliminar bots e perfis falsos que infestam as plataformas. Isso deve reduzir comportamentos antissociais, como ameaças e comentários discriminatórios, já que estes são intensificados pelo anonimato na internet. Porém, só o trabalho humano não dá conta da tarefa, e por isso ela vem sendo automatizada pelo uso de inteligência artificial.

O banimento de pessoas ou comunidades e a exclusão de publicações suscitam, entretanto, preocupações sobre censura. Para limitar o conteúdo prejudicial sem ferir a liberdade de expressão, adota-se outra tática, a de “rebaixar” os posts nocivos (demotion), alterando sutilmente os algoritmos para diminuir sua visibilidade, sem removê-los completamente.

Outra estratégia é retardar a disseminação online da desinformação (delay), introduzindo “fricções” em seu processo de propagação. Pesquisas demonstram que cada passo adicional necessário para compartilhar notícias falsas – por exemplo, obrigar a pessoa a copiar e colar manualmente o texto em uma nova postagem – reduz significativamente a probabilidade de que estas viralizem.

A revelação da origem das publicações (disclosure) aumenta a transparência, permitindo que os usuários as avaliem criticamente e as desconsiderem, caso venham de fontes duvidosas. Em momentos críticos, como a pandemia de covid-19, as plataformas se empenham em identificar e sinalizar posts falsos. Feito isso, podem redirecionar os usuários a fontes confiáveis (diversion), ou inundar o debate online com conteúdo positivo para diluir o impacto do negativo (dilution). Estudos empíricos sugerem que o uso do “contradiscurso” seria uma arma eficaz para combater o discurso de ódio, e que os mesmos eventos que desencadeiam reações raivosas online muitas vezes provocam ondas ainda maiores de posicionamentos contra a discriminação. Quando nenhum desses instrumentos funciona, uma dissuasão mais direta (deterrence) pode se fazer necessária, o que se consegue por meio de sanções, inclusive offline.

Todas essas ações dependem da verificação dos fatos – o que, é claro, não é algo simples de se fazer. Além disso, em alguns casos, acredita-se que a sinalização negativa de posts possa ter efeito contrário (backfire effect), principalmente quando esta confronta as crenças preexistentes de um indivíduo, que nesse caso pode radicalizar ainda mais sua posição anterior.

Apesar de alguns indícios de efeitos contraproducentes como este, estudos recentes trazem evidências de que correções e avisos reduzem o compartilhamento de desinformação. Há outros fatores a serem considerados, no entanto. Investigar se uma informação é enganosa ou não requer tempo e esforços consideráveis, o que, dado o gigantesco volume de dados circulando na internet faz com que muitas publicações falsas jamais sejam verificadas. O risco, com isso, é que estas sejam vistas como verdadeiras, simplesmente por não terem sido carimbadas como mentirosas.

Muitas das medidas acima podem ser vistas como meros paliativos – “band-aids tecnológicos” para as feridas das redes sociais. A cura definitiva viria da mudança no modelo de negócios das plataformas, mas esta parece longe do alcance. Melhor seria adotar uma estratégia de alfabetização digital (digital literacy), procurando desenvolver nas pessoas o pensamento crítico e as habilidades necessárias para navegar nas redes sem se machucar. Pesquisas mostram que materiais educativos podem funcionar como uma vacina contra a desinformação, proporcionando uma imunidade mental a longo prazo.

A proliferação da desinformação e do discurso de ódio na internet representa um risco para a democracia, podendo induzir parte da população a decisões mal informadas e equivocadas, e inibir a participação de alguns indivíduos ou grupos no debate público. As plataformas, até agora, foram parte desse problema. Aplicando ferramentas como as descritas acima, elas podem contribuir significativamente para a solução.

*Eduardo Felipe Matias é autor dos livros A humanidade e suas fronteiras e A humanidade contra as cordas, ganhadores do Prêmio Jabuti, e coordenador do livro Marco Legal das Startups. Doutor em Direito Internacional pela USP, foi visiting scholar nas universidades de Columbia, em NY, e Berkeley e Stanford, na Califórnia. É sócio da área empresarial de Elias, Matias Advogados

Nenhum comentário: