
En febrero de 2007, Noruega lanzó el Proceso de Oslo como convocatoria mundial para acabar con las municiones en racimo. Tras numerosas conferencias posteriores de seguimiento, el 30 de mayo de 2008 se aprobarÃa en DublÃn la Convención sobre Municiones en Racimo, con la participación de más de un centenar de Estados. Aquel acuerdo, como previamente en 1997 lo habÃa sido también la Convención sobre la Prohibición de las Minas Antipersona –aunque siga habiendo paÃses como Marruecos que la incumple-, supuso un avance en evitar el sufrimiento de civiles inocentes. Tocan ahora las armas autónomas, los llamados ‘robots asesinos’, pero los paÃses no parecen estar por la labor.
Ya en 2013, el que entonces era relator especial de la ONU sobre ejecuciones extrajudiciales –como en EEUU denominaron a los asesinatos con drones sin juicio previo-, sumarias o arbitrarias, Christof Heyns, advirtió sobre la amenaza que suponÃan estos sistemas de armas autónomos. Desde entonces y a pesar de que 91 paÃses –entre ellos España- han pedido ya un instrumento legalmente vinculante, no se ha avanzado gran cosa en cuanto a establecer un marco global, todo lo contrario de lo que ha sucedido desde la óptica tecnológica, habiendo perfeccionado la letalidad a distancia de estas armas. El hecho de que paÃses como EEUU, Reino Unido, Rusia, India, Japón, Corea del Sur... no apoyen este instrumento vinculante, y otros como Francia, Alemania, Italia, los paÃses nórdicos, Canadá... ni siquiera se declaren al respecto no ayuda. Unos bloquean y otros huyen de acuerdos vinculantes, apostando por la voluntariedad. Llama la atención que entre los paÃses que no se han mostrado a favor de medidas vinculantes figura Ucrania y ahora está pagando las consecuencias de ello.
Desde Human Rights Watch al mismo Comité Internacional de la Cruz Roja piden que se prohÃban este tipo de armas que seleccionan y atacan objetivos sin un control humano significativo. Hace apenas quince dÃas se ha producido un nuevo encuentro en Ginebra que, entre otras cuestiones, querÃa abordar los sistemas letales de armas autónomas (LAWS, por sus siglas en inglés). En la última reunión, que se prolongó hasta pasada la medianoche, los diplomáticos volvieron a estancarse, con un decepcionante resultado.
En su informe final, lo más provechoso es la conclusión de que el Derecho Internacional Humanitario (DIH) debe aplicarse plenamente al desarrollo potencial de LAWS, que no debieran utilizarse si no es posible hacerlo de acuerdo al DIH. Absolutamente insuficiente pues viene a plasmar la perogrullada de que es ilegal utilizar un sistema de armas que no se pueda usar legalmente. Los paÃses se enzarzaron en cuestiones dialécticas, como las protagonizadas por Japón y Reino Unido, que instaron a no estigmatizar la tecnologÃa, haciendo un llamamiento a adoptar un enfoque más agnóstico y considerar la Inteligencia Artificial (IA) una funcionalidad y no un sistema armamentÃstico en sà misma. Otros paÃses, como Rusia, se opusieron a que la sociedad civil pueda contribuir al texto que regule estas armas. Como novedad en las discusiones destaca la aportación de la Unión Europea (UE) y Canadá de introducir en el debate una perspectiva de género.
La Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés), que es el marco en el que se está tratando de resolver esta cuestión, ha encallado y numerosos expertos apuestan por aprender de las lecciones de Convención sobre Municiones en Racimo, cuyas primeras conversaciones también se iniciaron bajo el paraguas de CCW y se chocaron contra un muro de continuos bloqueos. No fue hasta que se salió del marco de la ONU y se inició el Proceso de Oslo –como ya sucediera previamente con el Tratado de Prohibición de Minas- cuando el asunto prosperó.
Mientras una vez más se evidencia la inoperancia de la ONU –y su necesidad de profunda reforma-, el desarrollo de armas autónomas se acelera, dotándolas de los últimos avances en IA. Un buen ejemplo de ello es la Artificial Intelligence Platform (AIP) de Palantir Technologies con la que se persigue mejorar la toma de decisiones militares incorporando modelos de aprendizaje automático como GPT-4 de OpenAI. Conscientes del debate ético al respecto, los directivos de la compañÃa han lanzado toda una campaña intentando transmitir el uso responsable y moral de estos sistemas.
Tanto es asà que en un vÃdeo lanzado por Palantir es posible ver a un soldado desplegar drones, diseñar respuestas tácticas y orquestar la interferencia de comunicaciones enemigas asistido por IA. El vÃdeo, claro está, no muestra los sesgos o las imprecisiones que este tipo de sistemas pueden proporcionar en tiempo real. La fiabilidad de la información proporcionada por estos modelos de machine learning (aprendizaje automático) deberÃa llamar a la cautela, especialmente porque lo que está en juego son vidas humanas. Y, hoy por hoy, no hay un marco internacional que regule ese uso por la cantidad de intereses cruzados existentes, como se ha evidenciado el pasado mes de mayo en Ginebra. Y, adivinen qué, empresas como Palantir, que cuenta con el apoyo de la CIA, acaba de anunciar sus resultados correspondientes al primer trimestre del año, superando las previsiones de los analistas hasta alcanzar los 525 millones de dólares –en 2022 rondó los 2.000 millones de dólares-, lo que supone un crecimiento del 15%.
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>