Una región, todas las voces

L21

|

|

Leer en

¿Serían las “notas comunitarias” una solución real para garantizar la libertad de expresión?

Ya sea por la falta de transparencia de cómo funciona realmente este modelo, o por los datos descritos anteriormente, es difícil asumir que las “Notas Comunitarias” sean más democráticas que el sistema de verificación profesional de datos.

Apenas hemos comenzado el año 2025 y ya tenemos un tema muy importante en la agenda mundial. Meta anunció recientemente, a través de su CEO Mark Zuckerberg, que eliminaría el fact-checking de la plataforma para adoptar un sistema de moderación basado en las llamadas “Community Notes”, vigentes en X de Elon Musk.

El comunicado utilizó un lenguaje inusual, lleno de belicosidad y con contornos claros de una cosmovisión que ocupa la arena política más radical, más polarizada y que demuestra la posición de uno de los gigantes tecnológicos en el choque por la regulación de las redes sociales.

Comienza así otro capítulo de una disputa que divide al mundo y que se centra en la libertad de expresión, uno de los derechos más clásicos desde el siglo XVII.

Es desde este contexto que el debate sigue siendo candente, pues es conocida la resistencia de las plataformas digitales a someterse a controles externos (como la legislación, por ejemplo), así como la gran controversia conceptual en torno al significado de esta libertad de expresión, que se ha convertido en un mantra de la extrema derecha, que lo interpreta como algo que no se puede limitar, además de colocarlo como el núcleo de una vida que, según estos portavoces, debe ser vivida por individuos.

Con un poco más de racionalidad, sin embargo, uno se da cuenta de que toda esta discusión contaminada por la ideología carece del análisis más básico: después de todo, ¿Serían realmente las “Notas Comunitarias” una solución a los potenciales problemas que enfrentan los países al gestionar la libertad de expresión en el entorno virtual? ¿O se trata simplemente de un mero “canto de sirena” para que las plataformas eludan sus deberes de moderación, mientras que la sociedad en su conjunto se vuelve aún más conflictiva?

Para introducir este enfoque, es necesario entender cómo funcionará la nueva política de Meta, algo que aún no ha sido divulgado públicamente y que, en una reciente respuesta a la Procuraduría General de la República de Brasil, parece que ni siquiera existe una política claramente construida sobre cómo se adoptará esto. Lo único que se ha manifestado es que los cambios solo afectarán por el momento a Estados Unidos, para que se pueda probar el modelo. Algo que, debido a la falta de transparencia que ha venido imponiendo Meta en los últimos tiempos, no genera certeza de que vaya a ser realmente así.

Por tanto, comenzaremos con un breve análisis de las “Notas Comunitarias” aplicadas en X, ya que en teoría serían la base para el modelo Meta.

Según información de X e investigaciones sobre el tema, cualquier persona que tenga un número de teléfono válido y una cuenta X por más de 6 meses puede registrarse en “Notas de la comunidad”. Se pensaba que sólo sería gente que pagara por el perfil verificado, pero no, es algo más general. Sin embargo, la aceptación de la persona registrada no es automática y no fue posible obtener mayor información sobre este proceso de admisión.

Una vez aceptada, la persona puede sugerir notas sobre contenido que considere que contiene desinformación o noticias falsas, pero esta nota aún no se hace pública. Una vez sugerida una nota, se envía a otras personas de la comunidad, quienes verifican su contenido y votan si es relevante o no. Hay un punto importante aquí: es el algoritmo el que decide quién revisa la nota, pues se dice que la muestra de revisores debe ser diversa, al igual que los votos. Si no hay consenso sobre la nota, no se publica. El algoritmo también comprueba si realmente hay diversidad en la muestra de revisores, pero no ofrece información sobre cómo ocurre esto realmente. Mientras tanto, la nota permanece inédita, pero el contenido engañoso o falso continúa circulando con normalidad.

Según datos de dos encuestas, Center for Countering Digital Hate y The Washington Post, ambas de 2024, aunque la propuesta es inspiradora porque apuesta por una gran arena de debate público, no funciona en la práctica y, especialmente, en los momentos clave como las elecciones.

En la primera encuesta se encontró que las notas sugeridas que realmente corrigieron afirmaciones falsas y engañosas sobre las elecciones estadounidenses no se mostraron en 209 casos, de una muestra de 283 publicaciones consideradas engañosas, es decir, el 74%.

En la segunda encuesta, los datos son aún más preocupantes. Incluso cuando se publica una nota, el proceso suele tardar más de 11 horas, tiempo suficiente para que el contenido cuestionado circule libremente por la red entre millones de personas. Aun así, solo el 7,4% de los proyectos de ley propuestos para 2024 relacionados con las elecciones estadounidenses se hicieron públicos, un porcentaje que cayó aún más en octubre a solo el 5,7%.

Pero pensemos en la comunidad misma. Según estos estudios, los voluntarios no tienen grandes incentivos para permanecer en la moderación, reduciendo aún más las posibilidades de obtener el consenso buscado por el algoritmo al votar la calificación sugerida. Como la naturaleza de las notas es sugerente, puede haber un sesgo hacia posiciones políticas, llegando a desequilibrar el contenido que es más “monitoreado”. Por otro lado, para quienes están allí con espíritu de colaboración, puede ser frustrante que el contenido que niega la efectividad de una vacuna, por ejemplo, circule con normalidad mientras que la nota sugerida, apoyada en fuentes confiables, que denuncia la noticia falsa, está sujeto a una intensa disputa por su voto.

Además de requerir una dedicación importante a este trabajo voluntario, que puede ser intenso para la moderación de contenidos, al final también puede ser real la sensación de que no estás aportando nada. En una investigación realizada por Agência Lupa en asociación con Lagom Data, de 16.800 sugerencias de notas en portugués realizadas en noviembre de 2023, solo 1.352 fueron publicadas en el feed de X, lo que significa que el 92% de todas las «Notas de la Comunidad» en portugués permanecieron en el feed de X., el 89% estaban pendientes de evaluación y aún no habían sido mostrados a los usuarios; y el 3% ya había sido rechazado, quedando sólo el 8% disponible.

Ya sea por la falta de transparencia de cómo funciona realmente este modelo, o por los datos descritos anteriormente, es difícil asumir que las “Notas Comunitarias” sean más democráticas que el sistema de verificación profesional de datos, en el que las personas se dedican exclusivamente a esto y donde las pautas de clasificación de contenidos son más claras y accesibles. Es posible que las valoraciones de la comunidad mejoren, pero hasta entonces, no apostaría por una solución milagrosa al enfrentamiento sobre la verdad que circula en las redes sociales.

Autor

Otros artículos del autor

Doctor y Máster en Ciencias Jurídicas y Políticas, Universidad de Salamanca, España. Profesor de Derecho Constitucional, Electoral y Derechos Humanos en diversas instituciones de Brasil y América Latina. Coordinador general de la organización Transparencia Electoral Brasil.

spot_img

Artículos relacionados

¿Quieres colaborar con L21?

Creemos en el libre flujo de información

Republique nuestros artículos libremente, en impreso o digital, bajo la licencia Creative Commons.

Etiquetado en:

COMPARTÍR
ESTE ARTÍCULO

Más artículos relacionados