Nous avons besoin d'une approche à deux niveaux pour contrôler l'IA militaire
Cet article a été initialement publié sur le blog de Stop Wapenhandel. Vous pouvez le retrouver ici.
L'intelligence artificielle (IA) devient rapidement un élément central des nouvelles armes produites, comme les avions de combat et les capteurs. Quelques exemples ont été rapportés au cours de la seule première semaine de juin :
- Amnesty International rapporte l'utilisation de la technologie d'intelligence artificielle d'Elbit par l'armée israélienne à Gaza, utilisée pour inventorier rapidement les cibles sur la base des données de surveillance fournies par les satellites. Selon le ministre néerlandais de la défense, M. Ollongren, cette technologie a fait ses preuves au combat et est disponible à l'exportation.
- En juin 2024, Airbus a signé un accord de coopération avec la start-up allemande Helsing, spécialisée dans l'IA, pour travailler sur un avion sans pilote futuriste baptisé Wingman. Hesling fournira ses connaissances en matière d'IA "y compris la fusion de divers capteurs et algorithmes pour la guerre électronique". Le Wingman se voit confier un certain nombre de tâches, allant du brouillage et de la reconnaissance à des "missions de frappe contre des cibles terrestres et aériennes". Il déploiera des armes guidées lors d'opérations trop dangereuses pour envoyer un avion habité. Helsing est impliqué dans les deux principaux programmes européens d'avions de combat. Airbus coopère également avec NeuralAgent, une autre startup, pour développer une technologie permettant d'automatiser et de réduire considérablement les temps de réponse d'un nombre illimité de fonctions de combat.
- En avril 2024, l'agence américaine DARPA (Defense Advanced Research Projects Agency) a rapporté le premier cas de dogfight (combat aérien entre avions de chasse à courte distance) entre un avion de chasse piloté et un avion contrôlé par l'IA. Selon un commandant de l'école des pilotes d'essai de l'armée de l'air américaine, ce test a montré que le projet de la DARPA "va dans la bonne direction".
Les exemples de développement de l'IA militaire sont nombreux. L'ONG Saferworld a fait une déclaration alarmante : "Nous allons probablement commencer à voir apparaître des systèmes d'armes de plus en plus avancés et potentiellement plus meurtriers", et il est "nécessaire d'agir - et d'agir maintenant", car l'IA est "le moment Oppenheimer de cette génération", en référence aux premiers stades du développement des armes nucléaires, bien connus aujourd'hui grâce au récent film d'Oppenheimer. À l'époque, on s'est rendu compte qu'une puissance explosive avait été créée, capable de détruire le monde en quelques frappes, et que cette puissance devait être contrôlée.
Les guerres en cours peuvent toutefois accélérer le développement incontrôlé d'"armes qui peuvent décider elles-mêmes qui ou quoi cibler - et même quand tuer", comme l'a écrit Defense News, un important magazine militaire américain. Dans le même article, le concept de "problème du Terminator" a été introduit. Le problème est que si un État dispose d'une certaine technologie militaire, tous les autres pensent qu'ils en ont également besoin pour être en sécurité - une situation qui rend difficile la régulation de l'IA.
Si l'on considère l'IA comme une méthode permettant d'absorber des informations et de prendre des décisions rapides - voire de lancer des actions avec ou sans personne dans la boucle - sur la base des données recueillies et des processus appris par la machine, on comprend alors le pouvoir et le danger de l'IA. Être le plus rapide est l'une des composantes cruciales de l'élan dans la guerre. Il s'agit là d'une notion fondamentale en matière de stratégie militaire. Il y a plus de deux mille ans, le stratège chinois Sun Szu écrivait déjà dans L'art de la guerre plusieurs conseils sur la rapidité des combats. Des millénaires après Szu, le tempo et le temps sont toujours des éléments centraux de la pensée stratégique. Une version du manuel de l'US Marine Force sur la conduite de la guerre, par exemple, déclare : "Le succès (dans la guerre) dépend en grande partie de la capacité à s'adapter - à façonner de manière proactive les événements changeants à notre avantage ainsi qu'à réagir rapidement à des conditions en constante évolution" et "Le tempo est en soi une arme - souvent la plus importante". Dans un rapport sur le rythme et les forces de reconnaissance, le célèbre stratège Von Clauzewitz est cité dans son ouvrage On War : "les hommes, le temps et l'espace sont les éléments clés de l'activité essentielle de la guerre, le combat".
Sous un autre angle, le Comité international de la Croix-Rouge a récemment souligné les dangers de l'accélération des guerres, le risque d'escalade et les erreurs qui peuvent en résulter. Il propose de les ralentir.
L'IA est un outil qui permet d'augmenter considérablement la vitesse des actions militaires et le problème du Terminator est donc encore plus lié à la technologie de l'IA qu'à l'armement normal. Il sera difficile de convaincre les nations puissantes de ne pas profiter des avantages de l'IA et de s'engager à la limiter et à la contrôler.
Malgré cela, plus de 140 pays se sont réunis pour parler des dangers et de la nécessité de contrôler l'IA, lors d'une conférence organisée à Vienne en avril 2024 et intitulée "L'humanité à la croisée des chemins: les systèmes d'armes autonomes et le défi de la réglementation". L'ONG Saferworld et le magazine militaire Defense News font référence à cette conférence, et la seconde source s'étend quelque peu sur l'affluence plus importante que prévu (1 000 délégués). Mais elle fait également état d'un obstacle majeur à l'adoption de cette technologie, qui n'en est encore qu'à ses balbutiements mais qui se développe rapidement : "Une grande partie des pays du Sud (...) semble désormais intéressée par la limitation de la technologie", selon un diplomate autrichien des affaires étrangères chargé du contrôle des armements.
Pensons-nous vraiment qu'au milieu d'une bataille entre la Chine et les États-Unis, quelqu'un va dire : "Attendez, nous ne pouvons pas laisser la machine faire ça" ? a demandé Natasha Bajema, chercheuse au James Martin Center for Nonproliferation Studies, en faisant référence à l'attrait de ce qu'elle a décrit comme une guerre se déroulant à la vitesse d'une machine. L'appétit pour une plus grande autonomie des armes, attisé par les combats en Ukraine et à Gaza, a noyé les appels de longue date en faveur d'une limitation de l'IA dans les applications militaires. Si l'on y ajoute le développement de la guerre froide 2.0 avec la Chine, la situation devient encore plus sombre.
La conférence autrichienne montre qu'il existe un intérêt et un espace pour débattre du contrôle. Et cet espace doit être utilisé à ce moment précis. Mais on peut être sûr qu'il sera beaucoup plus difficile - voire impossible - d'obtenir de bons résultats lorsque la politique mondiale retombera dans une situation de confrontation entre les superpuissances. Le contrôle de l'IA nécessite une approche à deux niveaux. La première implique des spécialistes, des diplomates et des hommes politiques qui débattent et proposent un contrôle des différents aspects de l'IA. Vienne a montré qu'il ne s'agissait pas d'une fata morgana. Mais sans atténuer l'atmosphère de guerre froide de la situation géopolitique actuelle, on peut être sûr que ces efforts seront réduits à néant par la nécessité militaire d'être plus rapide et donc plus décisif que l'adversaire. Les réunions augmenteront les possibilités d'échange entre les parties opposées et pourront introduire de petits pas qui pourraient être le début de gains diplomatiques plus importants. Depuis Vienne, les États-Unis et la Chine ont entamé des discussions sur l'IA ("sans viser de résultats substantiels"). Ces mesures minimales peuvent conduire à une politique plus substantielle et à des contacts entre les adversaires.
Le chemin vers la guerre froide 2.0 conduira inévitablement à une augmentation de l'armement non contrôlé de l'IA. La maîtrise des armements, en particulier dans le domaine important de la guerre autonome, n'est pas seulement une question technique, elle est aussi liée à la politique de puissance de ce monde. Et soyons clairs : dans le domaine de la paix et de la sécurité, la politique militaire a le dessus (comme le montre par exemple la croissance rapide des dépenses militaires), y compris en ce qui concerne le contrôle des armes, la paix et les solutions diplomatiques répondant aux conflits militaires. Ne nous leurrons pas, dans un monde de confrontation, le contrôle de cette technologie dangereuse est voué à l'échec.
Stay up to date with our international antimilitarist activism.
Ajouter un commentaire