kâ’¶osTICa

La ONU, ineficaz para regular las armas autónomas

Soldados de un ejército realizando una operación militar. / Pixabay
Soldados realizando una operación militar. / Pixabay

En febrero de 2007, Noruega lanzó el Proceso de Oslo como convocatoria mundial para acabar con las municiones en racimo. Tras numerosas conferencias posteriores de seguimiento, el 30 de mayo de 2008 se aprobaría en Dublín la Convención sobre Municiones en Racimo, con la participación de más de un centenar de Estados. Aquel acuerdo, como previamente en 1997 lo había sido también la Convención sobre la Prohibición de las Minas Antipersona –aunque siga habiendo países como Marruecos que la incumple-, supuso un avance en evitar el sufrimiento de civiles inocentes. Tocan ahora las armas autónomas, los llamados ‘robots asesinos’, pero los países no parecen estar por la labor.

Ya en 2013, el que entonces era relator especial de la ONU sobre ejecuciones extrajudiciales –como en EEUU denominaron a los asesinatos con drones sin juicio previo-, sumarias o arbitrarias, Christof Heyns, advirtió sobre la amenaza que suponían estos sistemas de armas autónomos. Desde entonces y a pesar de que 91 países –entre ellos España- han pedido ya un instrumento legalmente vinculante, no se ha avanzado gran cosa en cuanto a establecer un marco global, todo lo contrario de lo que ha sucedido desde la óptica tecnológica, habiendo perfeccionado la letalidad a distancia de estas armas. El hecho de que países como EEUU, Reino Unido, Rusia, India, Japón, Corea del Sur... no apoyen este instrumento vinculante, y otros como Francia, Alemania, Italia, los países nórdicos, Canadá... ni siquiera se declaren al respecto no ayuda. Unos bloquean y otros huyen de acuerdos vinculantes, apostando por la voluntariedad. Llama la atención que entre los países que no se han mostrado a favor de medidas vinculantes figura Ucrania y ahora está pagando las consecuencias de ello.

Desde Human Rights Watch al mismo Comité Internacional de la Cruz Roja piden que se prohíban este tipo de armas que seleccionan y atacan objetivos sin un control humano significativo. Hace apenas quince días se ha producido un nuevo encuentro en Ginebra que, entre otras cuestiones, quería abordar los sistemas letales de armas autónomas (LAWS, por sus siglas en inglés). En la última reunión, que se prolongó hasta pasada la medianoche, los diplomáticos volvieron a estancarse, con un decepcionante resultado.

En su informe final, lo más provechoso es la conclusión de que el Derecho Internacional Humanitario (DIH) debe aplicarse plenamente al desarrollo potencial de LAWS, que no debieran utilizarse si no es posible hacerlo de acuerdo al DIH. Absolutamente insuficiente pues viene a plasmar la perogrullada de que es ilegal utilizar un sistema de armas que no se pueda usar legalmente. Los países se enzarzaron en cuestiones dialécticas, como las protagonizadas por Japón y Reino Unido, que instaron a no estigmatizar la tecnología, haciendo un llamamiento a adoptar un enfoque más agnóstico y considerar la Inteligencia Artificial (IA) una funcionalidad y no un sistema armamentístico en sí misma. Otros países, como Rusia, se opusieron a que la sociedad civil pueda contribuir al texto que regule estas armas. Como novedad en las discusiones destaca la aportación de la Unión Europea (UE) y Canadá de introducir en el debate una perspectiva de género.

La Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés), que es el marco en el que se está tratando de resolver esta cuestión, ha encallado y numerosos expertos apuestan por aprender de las lecciones de Convención sobre Municiones en Racimo, cuyas primeras conversaciones también se iniciaron bajo el paraguas de CCW y se chocaron contra un muro de continuos bloqueos. No fue hasta que se salió del marco de la ONU y se inició el Proceso de Oslo –como ya sucediera previamente con el Tratado de Prohibición de Minas- cuando el asunto prosperó.

Mientras una vez más se evidencia la inoperancia de la ONU –y su necesidad de profunda reforma-, el desarrollo de armas autónomas se acelera, dotándolas de los últimos avances en IA. Un buen ejemplo de ello es la Artificial Intelligence Platform (AIP) de Palantir Technologies con la que se persigue mejorar la toma de decisiones militares incorporando modelos de aprendizaje automático como GPT-4 de OpenAI. Conscientes del debate ético al respecto, los directivos de la compañía han lanzado toda una campaña intentando transmitir el uso responsable y moral de estos sistemas.

Tanto es así que en un vídeo lanzado por Palantir es posible ver a un soldado desplegar drones, diseñar respuestas tácticas y orquestar la interferencia de comunicaciones enemigas asistido por IA. El vídeo, claro está, no muestra los sesgos o las imprecisiones que este tipo de sistemas pueden proporcionar en tiempo real. La fiabilidad de la información proporcionada por estos modelos de machine learning (aprendizaje automático) debería llamar a la cautela, especialmente porque lo que está en juego son vidas humanas. Y, hoy por hoy, no hay un marco internacional que regule ese uso por la cantidad de intereses cruzados existentes, como se ha evidenciado el pasado mes de mayo en Ginebra. Y, adivinen qué, empresas como Palantir, que cuenta con el apoyo de la CIA, acaba de anunciar sus resultados correspondientes al primer trimestre del año, superando las previsiones de los analistas hasta alcanzar los 525 millones de dólares –en 2022 rondó los 2.000 millones de dólares-, lo que supone un crecimiento del 15%.

Más Noticias