Necesitamos un enfoque de dos niveles para controlar la IA militar

en
es
fr
Una impresión artística del avión Wingman. Es un avión negro de aspecto muy moderno.
Una impresión artística del Wingman de Airbus
Author(s)
Martin Broek

 

Este artículo fue publicado originalmente en el blog de Stop Wapenhandel. Pueden encontrarlo aquí.

La inteligencia artificial (IA) se está convirtiendo rápidamente en un elemento central en las armas de nueva fabricación, como los aviones de combate y los sensores. Algunos ejemplos de la primera semana de junio:

  • Amnistía Internacional denuncia el uso de la tecnología de inteligencia artificial Elbit por parte del ejército israelí en Gaza, utilizada para un rápido inventario de objetivos basándose en datos de vigilancia proporcionados por satélites. La tecnología ha sido probada en combate y está disponible para su exportación, según el ministro de Defensa holandés, Ollongren .
  • En junio de 2024, Airbus firmó un acuerdo de cooperación con la startup alemana de inteligencia artificial Helsing para trabajar en un avión no tripulado futurista llamado Wingman. Hesling aportará su conocimiento de inteligencia artificial “incluida la fusión de varios sensores y algoritmos para la guerra electrónica”. El Wingman tendrá una serie de tareas, desde interferencias y reconocimiento hasta “misiones de ataque contra objetivos terrestres y aéreos”. Desplegará armas guiadas durante operaciones demasiado peligrosas para enviar un avión tripulado. Helsing participa en los dos principales programas europeos de aviones de combate. Un aspecto estrechamente relacionado es que Airbus también coopera con NeuralAgent, otra startup, para desarrollar tecnología para automatizar y reducir en gran medida los tiempos de respuesta de un número ilimitado de funciones de combate.
  • En abril de 2024, la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de Estados Unidos informó del primer caso de un combate aéreo entre aviones de combate a corta distancia entre un caza tripulado y un avión controlado por una IA. Según un comandante de la Escuela de Pilotos de Pruebas de la Fuerza Aérea de Estados Unidos, la prueba demostró que el proyecto de la DARPA "avanza en la dirección correcta".

Hay numerosos ejemplos de desarrollos de IA militar. La ONG Saferworld afirmó de forma alarmante que: “es probable que empecemos a ver sistemas de armas cada vez más avanzados y potencialmente más letales”, y que existe una “necesidad de actuar, y actuar ahora”, porque la IA es “el momento Oppenheimer de esta generación”, en referencia a las primeras etapas del desarrollo de armas nucleares, bien conocidas ahora por la reciente película sobre Oppenheimer. En ese momento, se hizo evidente que se había creado un poder explosivo capaz de destruir el mundo en unos pocos ataques, y que ese poder tenía que ser controlado.

Sin embargo, las guerras en curso pueden acelerar el desarrollo descontrolado de “armas que pueden decidir por sí mismas a quién o qué atacar —e incluso cuándo matar— (…) que ingresan a los arsenales militares”, como lo expresó Defense News, una importante revista militar estadounidense. En el mismo artículo se introdujo el concepto de “problema Terminator”, es decir, que si un estado tiene cierta tecnología militar, todos los demás creen que también la necesitan para estar seguros, una situación que dificulta la regulación de la IA.

Cuando consideramos la IA como un método para absorber información y tomar decisiones rápidas (o incluso iniciar acciones con o sin personas involucradas) en función de los datos recopilados y los procesos de aprendizaje automático, entonces comprendemos el poder y el peligro de la IA. Ser el más rápido es uno de los componentes cruciales para tener impulso en la guerra. Esta es una idea básica en la estrategia militar. Hace más de dos mil años, el estratega chino Sun Szu ya escribió El arte de la guerra, varios consejos sobre batallas rápidas. Milenios después de Szu, el ritmo y el tiempo siguen siendo elementos centrales en el pensamiento estratégico. Una versión del Manual de la Fuerza de Marines de los EE. UU. sobre la conducción de la guerra, por ejemplo, afirma: "El éxito [en la guerra] depende en gran parte de la capacidad de adaptarse, de moldear proactivamente los eventos cambiantes en nuestro beneficio, así como de reaccionar rápidamente a las condiciones que cambian constantemente", y "El ritmo es en sí mismo un arma, a menudo la más importante". En un informe sobre el ritmo y las fuerzas de reconocimiento, se cita al famoso estratega Von Clauzewitz de su obra Sobre la guerra: "los hombres, el tiempo y el espacio como componentes clave de la actividad esencial en la guerra, el combate".

Desde otro ángulo, el Comité Internacional de la Cruz Roja ha señalado recientemente los peligros de acelerar las guerras, el riesgo de escalada y los errores que pueden derivar de ello. Propone frenarlas.

La IA es una herramienta que permite aumentar enormemente la velocidad de las acciones militares y, por lo tanto, el problema de los exterminadores está más relacionado con la tecnología de la IA que con el armamento normal. Será difícil convencer a las naciones poderosas de que se abstengan de aprovechar las ventajas de la IA y se comprometan a limitarla y controlarla.

A pesar de ello, más de 140 países se reunieron para hablar de los peligros y la necesidad de controlar la IA, en una conferencia de Viena que se celebrará en abril de 2024 y que se llamará “La humanidad en la encrucijada: los sistemas de armas autónomos y el desafío de la regulación”. Tanto la ONG Saferworld como la revista militar Defense News hacen referencia a esta conferencia, y la segunda fuente amplía un poco la información sobre el aumento, mayor de lo previsto (1.000 delegados), pero también informa sobre una importante barrera para controlar la tecnología, que todavía está en su fase inicial pero se está desarrollando rápidamente: “Gran parte del Sur Global (…) ahora parece interesada en restringir la tecnología”, según el diplomático de Asuntos Exteriores de Austria sobre control de armas, Alexander Kmentt, pero –y aquí está el quid de la cuestión– “aunque poco se podría lograr sin la aceptación de las principales potencias mundiales”.

“¿Realmente creemos que en medio de una batalla entre China y Estados Unidos, alguien va a decir: ‘Espera, no podemos dejar que la máquina haga eso’?”, preguntó Natasha Bajema, investigadora del Centro James Martin para Estudios de No Proliferación, refiriéndose al atractivo de lo que describió como una guerra que avanza a la velocidad de las máquinas. El apetito por una mayor autonomía en las armas, avivado por los combates en Ucrania y Gaza, ha ahogado los reclamos de larga data de límites a la IA en aplicaciones militares. Cuando se incluye el desarrollo de la Guerra Fría 2.0 con China, la situación se vuelve aún más sombría.

La conferencia de Austria muestra que hay interés y espacio para debatir el control, espacio que debería aprovecharse en este momento. Pero podemos estar seguros de que será mucho más difícil –o incluso imposible– alcanzar resultados sólidos cuando la política mundial vuelva a caer en una situación de confrontación entre las superpotencias. El control de la IA necesita un enfoque de dos niveles. El primero involucra a especialistas, diplomáticos y políticos que están debatiendo y proponiendo el control de diferentes aspectos de la IA. Viena demostró que esto no es un fata morgana. Pero si no se alivia la atmósfera de Guerra Fría de la situación geopolítica actual, podemos estar seguros de que estos esfuerzos se verán truncados por las necesidades militares de ser más rápidos y, por lo tanto, más decisivos que el oponente. Las reuniones aumentarán las posibilidades de intercambio entre las partes opuestas y pueden introducir pequeños pasos que pueden ser el comienzo de mayores ganancias diplomáticas. Desde Viena, Estados Unidos y China comenzaron a hablar sobre IA (“sin apuntar a ningún resultado sustancial”). Esos pasos mínimos pueden conducir a una posible política y contacto más sustanciales entre adversarios.

El camino hacia la Guerra Fría 2.0 conducirá inevitablemente a un armamento de IA más descontrolado. El control de armamentos, especialmente en este importante campo de la guerra autónoma, no es sólo una cuestión técnica, sino que también está relacionada con la política de poder de este mundo. Y seamos claros: en el campo de la paz y la seguridad, la política militar tiene la última palabra (como se pone de relieve, por ejemplo, en el rápido crecimiento de los gastos militares), incluido el control de armamentos, la paz y las soluciones diplomáticas para responder a los conflictos militares. No nos engañemos: en un mundo de confrontación, el control de esta peligrosa tecnología fracasará.

Información del autor
Programmes & Projects
Countries

Añadir nuevo comentario

CAPTCHA
Introduzca los caracteres mostrados en la imagen.
Esta pregunta es para comprobar si usted es un visitante humano y prevenir envíos de spam automatizado.

About the authors

Recibimos una amable oferta de una donante individual, que igualará hasta £5.000 en donaciones de otras personas, por lo que si apoyas a la Internacional de Resistentes a la Guerra hoy, ¡tu donación vale el doble!