Opinión · kⒶosTICa

Otro fiasco de la Inteligencia Artificial: discriminación de mujeres en Amazon

Amazon vuelve a ser objeto de un escándalo. Sus especialistas en Inteligencia Artificial (IA) y aprendizaje automático ocultaron que su algoritmo para contratar a las personas discriminaba a las mujeres. Como venimos repitiendo aquí desde hace muchos artículos, los algoritmos no son infalibles, sencillamente, porque las personas que los crean tampoco lo son.

El problema surge cuando se confía plenamente en estos niveles de automatización, replicándose una y otra vez las malas prácticas hasta que son descubiertas. Con todo, según un estudio de la compañía CareerBuilder en EEUU, el 55% de l@s responsables de RRHH considera que la IA será una herramienta habitual para ellos en los próximos cinco años.

El equipo de especialistas venía desarrollando este tipo de sistemas desde 2014. El objetivo era contar con un software que revisara automáticamente las solicitudes de empleo de l@s candidat@s, seleccionando los mejores talentos. Del mismo modo que l@s comprador@s puntúan de una a cinco estrellas los productos en esta web de comercio electrónico, la herramienta de Amazon calificaba a l@s candidat@s.

A fin de cuentas y desde 2015, la multinacional ha triplicado su plantilla global superando ampliamente el medio millón de trabajador@s. Desde la filial de Edimburgo, Amazon creó un equipo de doce personas para desarrollar este software, según desveló Reuters.

El sistema contenía hasta 500 modelos informatizados en función de distintos puestos de trabajo y sus localizaciones. Cada uno de estos modelos reconocía alrededor de 50.000 términos que suelen aparecer en las solicitudes de las personas que optan al trabajo, pudiendo discernir, por ejemplo, quién estaba capacitado para programar en diversos lenguajes para un puesto técnico concreto.

Sin embargo, este sistema no valoraba a todo el mundo bajo los mismos criterios. Hace unos tres años, la compañía descubrió que los procesos selectivos para puestos como el de desarrollador de software no estaban produciéndose con normalidad. Sencillamente, no había neutralidad en cuanto al género, inclinándose más por los hombres que por las mujeres.

El algoritmo tomó como una de sus referencias el patrón de currículums presentados en la compañía durante una década, en la que la mayor parte de los candidatos eran hombres. Como consecuencia, el sistema penalizó aquellas solicitudes en las que aparecía la palabra ‘mujer’.

Amazon ha querido suavizar la polémica indicando que su departamento de RRHH no sólo se basaba en las recomendaciones del sistema para realizar contrataciones, sino también en otros factores. En todo caso, el proyecto se canceló y, también desde Edimburgo se trabaja en un nuevo algoritmo que contemple una mayor diversidad.

La noticia surge el mismo mes en que Amazon ha anunciado su intención de reforzar su actual plantilla europea de 5.500 ingenieros e investigadores, repartidos en sus 25 centros de desarrollo. Dos de ellos se encuentran en España: el de Barcelona especializado en aprendizaje automático, que es una de las áreas que más quiere fortalecer; y el de Madrid, dedicado al desarrollo de software para las cinco web europeas. Manchester será una de las ciudades en las que se abrirá un nuevo centro con 600 trabajador@s.

Las grandes tecnológicas continúan presentando una gran diferencia entre hombres y mujeres en sus plantillas. Amazon no es de los casos más significativos, con un 60% de hombres y un 40% de mujeres. Otras como Google presentan una proporción de 69% de hombres y 31% de mujeres, o Microsoft, con un 74% de trabajadores frente a un 26% de trabajadoras.