2025 nem bem começou e já temos um tema muito importante na agenda mundial. Recentemente a Meta anunciou, por meio do seu CEO Mark Zuckerberg, que eliminaria a checagem de fatos da plataforma para adotar um sistema de moderação baseado nas chamadas “Community Notes”, vigentes no X de Elon Musk.
O pronunciamento usou uma linguagem incomum carregada de belicosidade e com claros contornos de uma visão de mundo que ocupa a arena política mais radical, mais polarizada e que demonstra a posição de uma das gigantes da tecnologia no embate que há sobre regulação das redes sociais.
Assim começa mais um capítulo de uma disputa que racha o mundo e que tem como centro a liberdade de expressão, um dos direitos mais clássicos desde o século XVII.
É a partir desse contexto que o debate segue inflamado, uma vez que é conhecida a resistência das plataformas digitais em se submeter a controles externos (como legislações, por exemplo), bem como a grande controvérsia conceitual em torno do sentido dessa liberdade de expressão, que se transformou em um mantra da extrema direita, que a interpreta como algo não passível de ser limitado, além de colocá-la como o núcleo de uma vida que, segundo esses porta-vozes, deve ser vivida pelos indivíduos.
Com um pouco mais de racionalidade, no entanto, percebe-se que toda essa discussão contaminada de ideologia carece da análise mais básica: afinal, seriam as “Community Notes” realmente uma solução para o eventual problema de países no manejo da liberdade de expressão do ambiente virtual? Ou não passa somente por um mero “canto da sereia” para que as plataformas se esquivem de seus deveres de moderação, enquanto toda a sociedade se torna ainda mais conflitiva?
Para introduzir essa abordagem, deve-se entender como a nova política da Meta funcionará, algo que ainda não foi divulgado publicamente e que, em recente resposta à Advocacia Geral da União do Brasil, parece que nem há uma política construída claramente sobre como isso será adotado. O único que se afirmou é que as mudanças afetarão somente os Estados Unidos de momento, para que o modelo possa ser testado, algo que, somado à falta de transparência que a Meta vem impondo nos últimos tempos, não há certeza se de fato assim será feito.
Dessa forma, vamos partir de uma breve análise das “Community Notes” aplicadas no X, já que seria em tese a base para o modelo da Meta.
Segundo informações constantes no X e em pesquisas sobre o tema, qualquer pessoa que tenha um telefone válido e mais de 6 meses de conta no X pode se inscrever no “Community Notes”. Cogitou-se que seriam só as pessoas que pagam o perfil verificado, mas não, é algo mais geral. No entanto, o aceite da pessoa inscrita não é automático, e sobre esse processo de admissão não foi possível obter mais informação.
Uma vez aceita, a pessoa pode sugerir notas de conteúdos que encontre e que contenham desinformação ou que sejam uma notícia falsa, mas essa nota não é tornada pública ainda. Uma vez sugerida a nota, ela é submetida a outras pessoas da comunidade, que conferem o seu teor e que votam pela sua pertinência ou não. Aqui há um ponto importante: é o algoritmo que decide quem revisa a nota, pois segundo consta, a amostra de revisores deve ser diversa, tal como os votos. Se não há um consenso sobre a nota, ela não é publicada. O algoritmo também confere se realmente há diversidade na amostra de revisores, não havendo informações sobre como isso realmente ocorre. Enquanto isso, a nota segue não sendo pública, mas o conteúdo desinformativo ou falso segue circulando normalmente.
Segundo dados de duas pesquisas (Center for Countering Digital Hate e The Washington Post), ambas de 2024, embora a proposta seja inspiradora por apostar em uma grande arena de debate público, ela não funciona na prática e, principalmente, em momentos chave, como eleições.
Na primeira pesquisa, constatou-se que notas sugeridas e que de fato corrigiam afirmações falsas e enganosas sobre as eleições nos EUA não foram exibidas em 209 casos, de uma amostra de 283 publicações consideradas enganosas, ou seja, 74%.
Já na segunda pesquisa, os dados são ainda mais preocupantes. Mesmo quando uma nota é publicada, o processo levou normalmente mais de 11 horas, tempo suficiente para o conteúdo contestado circular livremente pela rede por milhões de pessoas. Ainda, somente 7,4% das notas propostas em 2024 relacionadas à eleição dos EUA foram tornadas públicas, percentual que caiu ainda mais em outubro, para apenas 5,7%.
Mas vamos pensar na comunidade em si. Ainda segundo essas pesquisas, os voluntários não possuem grandes incentivos para se manter na moderação, diminuindo ainda mais as chances de se obter o consenso buscado pelo algoritmo na votação da nota sugerida. Como a natureza das notas é de sugestão, pode haver um enviesamento de posições políticas, eventualmente desequilibrando os conteúdos que são mais “vigiados”. Por outro lado, para aqueles que estão lá com espírito de colaboração, pode ser frustrante que um conteúdo que nega a eficácia de uma vacina, por exemplo, circule normalmente enquanto a nota sugerida e amparada em fontes confiáveis que denunciam a notícia falsa seja objeto de intensa disputa para a sua votação.
Além de exigir uma importante dedicação desse trabalho voluntário e que pode ser intensa para a moderação de conteúdos, no final, a sensação de que não se está colaborando com nada pode ser também real. Em pesquisa realizada pela Agência Lupa em parceria com Lagom Data, de 16800 sugestões de notas em português feitas em novembro de 2023, apenas 1352 foram de fato publicadas no feed de X, o que faz com que 92% de todas as “Community Notes” em português permanecessem no sistema, 89% estivessem pendentes de avaliação e ainda não haviam sido exibidas aos usuários; e 3% já haviam sido rejeitadas, deixando apenas 8% disponíveis.
Seja pela falta de transparência de como esse modelo de fato funciona, seja pelos dados acima descritos, é difícil assumir que as “Community Notes” sejam mais democráticas que o sistema de checagem profissional de fatos, em que pessoas se dedicam exclusivamente para isso e que as diretrizes de classificação de conteúdos são mais claras e accessíveis. É possível que as notas da comunidade sejam aperfeiçoadas, mas até lá, eu não apostaria em uma solução milagrosa para o embate sobre a verdade que circula nas redes sociais.
Ana Claudia Santano é doutora e mestra em Ciências Jurídicas e Políticas, Universidad de Salamanca, Espanha. Estância pós-doutoral em Direito Constitucional na Universidad Externado, Colômbia, em Direito Público Econômico e Direitos Humanos, na PUCPR. Professora de Direito Constitucional, Eleitoral e Direitos Humanos em diversas instituições no Brasil e na América Latina. Coordenadora-geral da organização Transparência Eleitoral Brasil. Observadora Eleitoral Nacional, no Brasil, e Internacional em diversos países da América Latina a convite de autoridades eleitorais, como El Salvador (2019); Colômbia (2019, 2022); Peru (2020); Equador (2021); Honduras (2021); Guatemala (2023) – convidada pela Organização dos Estados Americanos, OEA – México e República Dominicana (2024).