Robots que no reconocen a personas negras

No es la primera vez que abordamos en este espacio cómo detrás de la Inteligencia Artificial (IA) se encuentran complejos algoritmos que, si no han sido desarrollados correctamente, pueden desembocar en situaciones indeseables. ¿Recuerdan cuando en 2015 alguien buscó en Google “gorilas” y en la categorización de imágenes aparecieron dos personas de raza negra? Aquello fue un error de programación de los algoritmos.

Muchos de estos errores se deben a prejucios y, buena parte de ellos, tienen que ver con el color de la piel –Airbnb trató también de ponerle remedio-. Algo parecido le sucedió a Joy Buolamwini, a la que le gusta autodenominarse ‘poeta del código’. Esta joven estudiaba su postgrado en el prestigioso MIT, trabajando con un software de reconocimiento facial. Ese fue el momento a partir del cual se propuso acabar con “la mirada codificada” o, lo que es lo mismo, el sesgo que, como en la vida real, se traslada al desarrollo de los algoritmos y que termina por desencadenar exclusión y prácticas discriminatorias.

Buolamwini se percató de que el software con el que trabajaba no reconocía su propio rostro. ¿Por qué? Porque es negra y las personas que en su día codificaron el algoritmo de reconocimiento fácil no había tenido en cuenta la amplia gama de tonos de piel y de estructuras faciales. Algo que parece lógico, incluso ahora leído, parece absurdo no haber caído en la cuenta de eso cuando se creó el software pero que, sin embargo, es un error más común de lo que creemos.

La propia Buolamwini lo ha experimentado en sus propias carnes. En pleno auge del desarrollo de la robótica, la estudiante del MIT ha tenido que comprobar en varias ocasiones cómo los robots no pueden interactuar con ella, simplemente, porque no reconocen su rostro por ser negra. Una de las últimas veces que le sucedió esto fue durante un viaje a Hong Kong, cuando un robot social no detectó su cara. La empresa que había desarrollado el autómata había utilizado el mismo software de reconocimiento facial y ahí fue cuando Buolamwini se dio cuenta de que el algoritmo viaja rápidamente –mediante la descarga de unos archivos de internet- y con él, el sesgo codificado.

Este tipo de sistemas de IA necesitan una fase de entrenamiento, de aprendizaje automático, durante la cual han de pasar muchos rostros para que el software identifique qué es una cara. Si la muestra que se emplea con el software no es lo suficientemente diversa –si no hay caras negras, por ejemplo-, el sistema terminará por no identificar determinados tonos de piel.

Aunque con un margen de error amplio porque no son pocas las ocasiones en las que las personas son mal etiquetadas, las redes sociales ofrecen una amplia variedad de caras ya reconocidas. Tanto es así que, según un informe de Georgetown Law, uno de cada dos adultos en EEUU –y hablamos de unos 117 millones de personas- tienen sus rostros en estas redes de reconocimiento facial que, si bien no son reguladas, son a veces utilizadas por los departamentos de policía.

La cruzada de Buolamwini para crear código de una forma más inclusiva no ha hecho más que empezar, pero es deseable que se extienda rápidamente y los desarrolladores de algoritmos tomen conciencia de ello, creando conjuntos de entrenamiento mucho más inclusivos. Ella apuesta, por ejemplo, por poner en marcha una campaña de selfies inclusivos, para así facilitar el trabajo a los desarrolladores que precisan de muestras muy amplias y diversas con las que realizar el aprendizaje automático de la IA.

Ella, por lo pronto, ya se ha unido a la Liga de la Justica Algorítmica, que se ha convertido en un punto de encuentro para toda aquella persona preocupada por la equidad decidida a combatir esta ‘mirada codificada’.