kⒶosTICa

Amenazas de la Inteligencia Artificial al servicio de los Estados

(Pixabay)

¿Puede servir la Inteligencia Artificial (IA) a los regímenes autoritarios? Esta es la pregunta que se hacen tres profesores universitarios en un artículo publicado en Foreign Affairs y a la que responden afirmativamente, al menos parcialmente. Del mismo modo que compañías como Facebook o Google utilizan la IA para corregir sus estrategias en función de sus predicciones se cumplen o no, los gobiernos podrían actuar de manera similar, empleando estas estadísticas y aprendizaje automático para retroalimentar sus políticas.

Tal y como recuerdan los autores, el Premio Nobel Herbert Alexander Simon, pionero de la IA, ya deslizó que esta tecnología terminaría teniendo más en común con los mercados y las políticas que con las simples aplicaciones de ingeniería. Con ese hilo conductor, los autores dibujan un escenario en el que los gobiernos puedan diseñar sus políticas apoyándose en las predicciones de éxito o fracaso. Lo que en un principio podría tener un aspecto positivo, se torna en algo nocivo para la democracia, pues se vicia de arriba abajo.

El quid de la cuestión es qué se considera éxito o fracaso y, lamentablemente, esta valoración poco tiene que ver con los efectos sociales de las medidas adoptadas, evaluándose más la cantidad de votos que reporta. Es ahí, precisamente, donde entra en juego la desinformación, transformando la realidad a la carta para la opinión pública con el único objetivo de controlarla mejor y fortalecer el régimen. Es lo que los autores denominan una espiral de engaño alimentada por IA.

Además de introducir la problemática de los sesgos en el desarrollo de algoritmos que, como hemos referido en este espacio, puede conducir a arrestos arbitrarios, el artículo plantea si a medida que el aprendizaje automático se vuelve más omnipresente, inevitablemente daña la democracia y ayuda a la autocracia. El hecho de que las redes sociales ‘jueguen’ con los comentarios de los usuarios y den más relevancia a determinado contenido para mantenerlos conectados no hace más que alimentar, por ejemplo, teorías de la conspiración. Bien es cierto, sin embargo, que buena parte del público que no tenga predisposición por ese tipo de contenido seguirá sin consumirlo pese al bombardeo de recomendaciones.

Citando al historiador y filósofo Yuval Harari, autor de obras como Sapiens y Homo Deus', el artículo pone el acento es cómo la IA centraliza los datos y el poder, permitiendo a los líderes manipular a la masa social ofreciéndole información específica diseñada para presionar sus "botones emocionales". A la larga, es un modo de control social al servicio del poder, tomando el pulso del público y haciéndose con sus respuestas más emotivas.

Los autores ponen encima de la mesa esa posibilidad, aunque reconocen que no existen evidencias irrefutables de que el aprendizaje automático, machine learning como es referido en inglés, permita realmente vaciar de este modo la democracia. Ni siquiera en el caso de Cambridge Analytica y la victoria de Donald Trump en las elecciones presidenciales de EEUU en 2016 parecen poder respaldar con la suficiente consistencia esta teoría. Con todo, lo que sí parece innegable es la utilidad, aunque fuera limitada, que tuvieron estas técnicas en esos comicios.

Entre los mecanismos de corrección ante esta amenaza, los autores destacan en las democracias maduras el poder de la prensa a la hora de confrontar hechos y desenmascarar desinformación, algo que no se da en las dictaduras por el peso de la censura. Sin embargo, ¿qué sucede cuando incluso los medios de comunicación están al servicio de algún poder interesado? Esa es una pregunta a la que no se ofrece respuesta, como tampoco a la posibilidad de que los Estados comiencen a utilizar el aprendizaje automático para detectar quejas en las redes sociales y eliminarlas.

A pesar de ello, la conclusión de los expertos se concreta en que si bien es cierta la evidencia de que la IA está incidiendo en el normal desarrollo de las democracias, no juega un papel tan importante como muchos sugieren. En todo caso, y como indicábamos hace unas semanas, es precisa la elaboración de una legislación acorde al momento actual que vivimos, regulando el uso de la IA por parte de empresas y Estados y abriendo ese espacio de transparencia que elimine la posibilidad de sesgos en los algoritmos. En este sentido, los expertos abogan, incluso, por un trabajo compartido y colaborativo entre Estados, pues la amenaza de la desinformación no entiende de fronteras... pero, ¿podemos ser optimistas a este planteamiento analizando la respuesta global que se ha dado a la pandemia de COVID-19?