kⒶosTICa

Los peligros de la Inteligencia Artificial en el control fronterizo de Europa

Los peligros de la Inteligencia Artificial en el control fronterizo de Europa
(Pixabay)

Desde 2007, Europa ha gastado 341 millones de euros en investigar la aplicación de tecnología de Inteligencia Artificial (IA) a cuestiones como el asilo, la inmigración y el control fronterizo, a pesar de que la Ley de IA que se debate actualmente en las instituciones europeas no ofrece garantías sobre las malas prácticas de estas tecnologías. La situación es preocupante por la grave amenaza que se cierne sobre nuestros derechos y libertades civiles.

Un nuevo informe de Statewatch, titulado A clear and present danger: Missing safeguards on migration and asylum in the EU’s AI Act (Un peligro claro y presente: ausencia de salvaguardas sobre migración y asilo en la Ley de IA de la UE), recoge hasta 51 proyectos dirigidos a aprovechar el potencial de esta tecnología aplicada en robots autónomos de control de fronteras, identificación biométrica y dispositivos de verificación y sistemas automatizados de recopilación y análisis de datos.

La UE financia estos proyectos a través de sus programas de I+D; el plan vigente en la actualidad (2021-2027), Horizon Europe, contempla un total de 93.000 millones de euros, de los cuales unos 1.400 millones se destinan a lo que la UE denomina "seguridad civil", que recoge un primer programa de trabajo con fondos de 55 millones de euros para proyectos de "gestión de fronteras".

España tiene un papel protagonista en estas investigaciones, no sólo con el Ministerio del Interior, que es el segundo europeo que más fondos recibió, con casi 4,6 millones de euros, sino a través de la Guardia Civil (915.000 euros) o el Centro de Satélites de la Unión Europea (792.000 euros), así como con sus empresas. De hecho las dos empresas que más financiación acapararon en la anterior convocatoria de proyectos FP7 y Horizon2020 dirigidos a investigar la IA para control fronterizo fueron españolas: Indra –de la que el Estado tiene un 28% de participación-, con cinco proyectos, rondó los 8 millones de euros, mientras que Isdefe (Ingeniería de Sistemas para la Defensa de España), propiedad del Estado, recibió algo más de 7,3 millones de euros con tres proyectos.  Paralelamente, otras dos empresas españolas como TTI Norte, con tres proyectos y más de 1,5 millones de euros; y GMV Aerospace and Defence, con tres proyectos en la convocatoria H2020, recibió otros casi 1,5 millones de euros. En total, 163 millones de euros han ido a parar a empresas privadas, no sólo europeas, sino también extracomunitarias como Israel Aerospace Industries, entre otras.

El ámbito académico también recibe financiación europea para acometer estas investigaciones y en los últimos 15 años ha contado con 54 millones de euros. En el caso español destacan la Universidad Autónoma de Barcelona, que ha recibido 1,3 millones por dos proyectos, la Universidad Rey Juan Carlos, con unos 845.000 euros para un par de proyectos y la Universidad Politécnica de Valencia, que obtuvo cerca de 755.000 euros para participar en otro proyecto.

De manera paralela a estos proyectos se debate una Ley de IA que inquieta a defensores de las libertades civiles como Statewatch, que en colaboración con otras organizaciones ha presentado esta misma semana una batería de enmiendas para tratar de garantizar los derechos fundamentales a las personas que soliciten asilo, sean migrantes o tengan que realizar trámites fronterizos.

El abuso en la utilización de la IA hace especialmente vulnerables a esos colectivos que, ya de por sí, presentan un elevado nivel de vulnerabilidad al huir de sus países de origen. Entre los riesgos que les amenazan, derivados de estos proyectos financiados por la UE, destacan los sistemas de identificación biométrica remota, creación de perfiles integrados en bases de datos de la UE o sistemas de análisis predictivos, con el peligro de los sesgos que hay detrás de los algoritmos. Tal y como está redactada la actual Ley de IA, estas amenazas o no se atajan lo suficiente o, directamente, ni siquiera se contemplan, lo que ha hecho encender todas las luces de alarmas entre los defensores de las libertades civiles.

Un ejemplo de la aplicación de la IA en alguno de estos proyectos se concreta en tratar de predecir el número probable de solicitantes de asilo con un mes de anticipación, así como escenarios a medio plazo. Para ello, Europa está impulsando el uso de algoritmos que se alimenten con datos tanto de los países de origen como de tránsito, muchos de ellos obtenidos a partir de redes sociales en tiempo real, cruzándolos con datos de llegadas a las fronteras de la UE y el histórico de solicitudes de asilo. Frontex, de hecho, ya monitoriza activamente las redes sociales para estar al tanto de los movimientos de grupos de personas hacia las fronteras comunitarias.

El proyecto iBorderCtr, dotado con 4,5 millones de euros, analiza los microgestos de las personas en frontera para detectar posibles riesgos y, en función de ello y de la evaluación de los funcionarios fronterizos, permitir o denegar la entrada al país. Según indica el informe de Statewatch, durante el proyecto piloto se llegaron a probar detectores de mentiras automáticos en los aeropuertos de Hungría, Grecia y Letonia. Los falsos positivos de este tipo de análisis de microgestos desaconsejan su utilización, aunque no parece que la UE esté por la labor. De hecho, ya ha probado este tipo de tecnología para analizar expresiones faciales, el habla y el lenguaje corporal para verificar la identidad de las personas y así, cruzando datos, contrastar su  vulnerabilidad y determinar el estado de su solicitud de asilo o si fueron derivadas a servicios médicos, de salud mental, etc., influyendo en la decisión de detención o no.

En esta misma línea Frontex pretende utilizar su sistema AVATAR para realizar evaluaciones automáticas de la verdad. Esto se traduce en el análisis del movimiento de los ojos, los cambios en el tono de la voz, la postura o las expresiones faciales para determinar lo mentiroso o peligroso que es un individuo. AVATAR ya se ha probado en Canadá y Rumania, planteando serias dudas sobre sus sesgos, al ni siquiera considerar las diferencias a la hora de comunicarnos según nuestra cultura e idioma, así como el impacto de sufrir un trauma, como sucede con las personas refugiadas.

Otro ejemplo terrible que se recoge en el informe es el desarrollado en Grecia con el sistema Centaur, más dirigido al control masivo que al bienestar de las personas refugiadas. Ese proyecto financiado por la UE y se dirige específicamente a las islas de Lesbos, Quíos, Samos, Leros y Kos. Inicialmente se contemplaba el uso de drones, así como de cámaras en los perímetros de los campos de refugiados y refugiadas para detectar cualquier incidencia, reforzando las medidas con detectores de metales y máquinas de rayos X. Ahora, además, se emplearán algoritmos para analizar los movimientos. El presupuesto del proyecto, sin confirmar por la UE, ronda los 33 millones de euros y confiere a estos campos un carácter de prisión.

Tanto el desarrollo de estas investigaciones como la redacción de la Ley de IA deberían ser mucho más celosas de salvaguardar las libertades civiles, considerando de alto riesgo algunos de los sistemas y tecnologías que pretenden aplicar al control fronterizo y las personas migrantes.

Más Noticias