kⒶosTICa

La autorregulación no basta contra la desinformación

(Pixabay)

Una de las consecuencias que ha traído consigo la pandemia de la covid-19 es una auténtica explosión de desinformación y, en contra posición, una aumento del número y actividad de las organizaciones que se dedican a la verificación (fact-cheking, en inglés). Desde la Harvard Kennedy School (HKS), a través de su Misinformation Review, han analizado cómo estas empresas han conseguido desacreditar estas narrativas falsas intensificando sus esfuerzos. Para su estudio, la HKS ha analizado la actividad de 15 de estas organizaciones seleccionadas en todo el mundo; con Maldita como la única representante de España.

El estudio revela cómo, efectivamente, la actividad de verificación se incrementó significativamente durante los primeros meses de la pandemia, sin abandonar por ello otras cuestiones. La buena noticias es cómo entre las personas usuarias también aumentó su interés y compromiso con la verificación de las noticias falsas que circulaban por las redes sociales.

Atendiendo a la actividad de estas 15 organizaciones en Twitter, la investigación confirma, no sólo el aumento de su actividad, sino también de los usuarios consumiendo y compartiendo las verificaciones. Todo ello considerando que en muchos casos, estas organizaciones han continuado publicando verificaciones en sus sitios web, pero no han compartidos todas ellas en sus perfiles de Twitter.

Los resultados del estudio de HKS trascienden a lo sucedido con la pandemia, pudiendo extender sus implicaciones más allá de este contexto. Utilizando las fake news del coronavirus como un caso de estudio, se valora positivamente el desempeño de las organizaciones de verificación durante los periodos de crisis (sanitaria en ese caso), llegando a plantear la necesidad de que reciban mayor apoyo institucional por su clara labor social.

En esta línea, la Comisión Europea ya encendió sus luces de alarma en 2018, cuando desarrolló su Código de Prácticas sobre Desinformación (CPD) que buscaba la colaboración de empresas como Facebook, Twitter o, más recientemente, TikTok para combatir la desinformación y tratar de reducir sus interferencias en procesos electorales.

La clave del CPD es la autorregulación, es decir, que a las plataformas de difusión de las desinformación no les haga falta una regulación para atajarla, que baste su misma reputación dado que una red social con manga ancha con las fake news debiera caer en el desprestigio público.

Dos años más tarde, los resultados de esta autorregulación no son del todo satisfactorios, como demuestra el modo en que la difusión selectiva y eficiente de desinformación continúa suponiendo interferencias electorales, con claros tintes extremistas y xenófobos. En una valoración del mismo por parte de la Comisión Europea en 2020, el saldo no es positivo. Věra Jourová, vicepresidenta responsable de Valores y Transparencia en la UE, afirmaba que "las plataformas deben ser más responsables, tienen que rendir cuentas y deben ser más transparentes. Ha llegado el momento de ir más allá de las medidas de autorregulación".

Así pues, es muy cuestionable si la protección de los derechos contra la desinformación debe limitarse únicamente al ámbito de la autorregulación de las plataformas privadas en lugar una supervisión regulatoria permanente. Sin embargo, la tarea no resulta nada sencilla, puesto que legislativamente hablando, buena parte de la desinformación no es ilegal en sí misma, a diferencia de lo que sucede con otros delitos en internet como la pornografía infantil o la infracción de derechos de autor.

En un ensayo de Ethan Shattock, investigador en el departamento de Derecho de la Universidad de Maynooth (Irlanda), publicado en Misinformation Review se llama la atención sobre la complejidad de regular el contenido nocivo, pero legal. De hecho Shattock advierte que "un intento agresivo de arriba hacia abajo de armonizar normas estrictas para contenidos nocivos pero legales podría desestabilizar la cohesión política en la Unión Europea", que ha de conciliar la regulación de ese contenido nocivo pero legal con el derecho de libertad de expresión.

Así las cosas y dada su ineficacia, la era de la autorregulación en la UE podría estar tocando a su fin. En 2020, la Comisión Europea presentaba su Plan de Acción para la Democracia Europea (EDAP) a través de la cual se comprometía a construir democracias más sólidas. Entre la batería de medidas que contemplaba este plan destacaban medidas para combatir la desinformación con nuevas normativas como la Ley de Servicios Digitales (DSA), entre otras, si bien es cierto que son tantas las lagunas y casuísticas de la desinformación que la DSA no ataja todas ellas, como es el mencionado de contenido nocivo pero legal.

A pesar de ello, hay mucho margen de maniobra todavía, pues si bien no toda la desinformación es ilegal, hay una que claramente lo es, como es el caso de la discriminatoria y racista, se mire desde la óptica comunitaria o de cada Estado Miembro. El ensayo de Shattock sugiere la posibilidad de endurecer las sanciones de las plataformas que no minimicen la difusión de desinformación, aunque se abre el riesgo de la censura ante el temor a multas. Precisamente para evitar esta censura, se apuesta no tanto por la eliminación de cierto contenido como por minimizarlo, desincentivarlo y, además, colaborar con las organizaciones de verificación.

Con medidas como éstas, podría identificarse campañas de desinformación persistentes a nivel europeo y de los Estados Miembros, desactivándolas inmediatamente. La conclusión mayoritaria entre los expertos es que es precisa una supervisión mucho más sólida que la actual, con enfoques armonizados y, muy especialmente, con una investigación más exhaustiva para conocer cómo y dónde surge la desinformación.