Por qué la Inteligencia Artificial no es de fiar

En los años 80, el ejército estadounidense diseñó un programa informático para que fuera capaz de identificar fotografías de tanques americanos y rusos. El problema vino porque mientras que las imágenes de tanques de EEUU estaban en alta resolución, las de los soviéticos no. ¿Qué hizo el sistema? Ley del mínimo esfuerzo: aprendió que cuando una imagen estaba pixelada, era de un tanque ruso y cuando no, estadounidense. Evidentemente, se producían errores.

Tres décadas después, ¿cuánto hemos avanzado realmente en el diseño de algoritmos para desarrollar Inteligencia Artificial (IA)? Mucho, pero insuficiente para su aplicación a ciertos ámbitos.

Buena parte de los problemas vienen del hecho de que l@s propi@s desarrollador@s de algoritmos, que no dejan de ser seres humanos, terminan por proyectar alguno de sus prejuicios. Diseñar un sistema de Inteligencia Artificial (IA) absolutamente neutral no parece tan sencillo, a juzgar por algunos resultados que terminaron convirtiéndose en sonadas noticias.

Este es el caso, por ejemplo del buscador de imágenes de Google. En junio de 2015, el popular buscador, alguien buscó “gorilas” y en la categorización de imágenes aparecieron dos personas de raza negra. El problema, casi con total seguridad, se produjo cuando se entrenó al sistema porque se utilizaron mayoritariamente imágenes de personas de raza blanca. Más de treinta años después, la sombra del tanque ruso aparece de nuevo.

A fin de cuentas, este tipo de algoritmos basa su funcionamiento –y, por tanto, el comportamiento del sistema- en la creación de patrones de conducta partir de la repetición. Ese es su entrenamiento, que va perfeccionando a medida que se ejecuta. No obstante, siempre se pueden producir excepciones y las consecuencias terminan por ser nefastas.

Desde un punto de vista meramente técnico, las causas para que sucedan estos fenómenos pueden ser varias. Por un lado, que el sistema no haya sido calibrado con un volumen de datos lo suficientemente elevado. Además, diseñar un algoritmo no es tarea sencilla y a menudo su programación es muy mejorable.

Existen otros ejemplos de prejuicios integrados en este tipo de sistemas inteligentes: Uno programa informático utilizado por la policía en EEUU no contribuye, precisamente, a relajar las tensiones raciales que desde hace un par de años han vivido un repunte. A pesar de no haber sido desarrollado para considerar de manera explícita la raza, el algoritmo de este programa ha terminado por identificar a los acusados negros como de alto riesgo, esto es, más propensos a cometer delitos en un futuro, frente a los de raza blanca.

En esta misma línea, resultan inquietantes recientes estudios como el llevado a cabo por dos investigadores chinos, Xiaolin Wu y Xi Zhang, de la Universidad Jiao Tong de Shanghái. Después de haber entrenado a su algoritmo con 1.856 imágenes (730 de criminales convictos y 1.126 de personas sin delitos), el sistema distinguía a los delincuentes de los que no son.

Para ello se basa en rasgos faciales, puesto que han llegado a la conclusión de que las caras de l@s criminales presentan similitudes diferentes a las de personas sin delito. Quiere decirse que la curvatura de los labios, la punta de la nariz o la posición del ángulo de los ojos dan pistas a la IA para determinar quién es o no un criminal.

¿Realmente los rasgos faciales pueden contribuir a predecir la criminalidad? Bueno, en realidad, la principal conclusión a la que llegaron fue que existen muchas más similitudes faciales entre la gente que respeta la ley que entre los delincuentes.

En otro ámbito como es el de las redes sociales, también podemos encontrar ejemplos de algoritmos que no han funcionado tan bien como se esperaba. En Facebook, la polémica surgida con la publicación de noticias falsas no deja de ser producto de un algoritmo mal diseñado, desarrollado únicamente para identificar el número de veces que se compartía o gustaba una noticia, pasando por alto un filtro de veracidad. Un razonamiento, por otro lado, muy extendido también entre las personas.

Así pues, aún resta mucho camino por recorrer en el desarrollo de la IA y la gran pregunta que subyace es: ¿seremos capaces de eliminar en los algoritmos cualquier rastro de prejuicios si ni siquiera los seres humanos parecemos ser capaces de desprendernos de ellos?