
Twitter admet que ses algorithmes amplifient les politiques de droite
7 mars 2026
CAC 40 : La géopolitique vient percuter la série de records du CAC
7 mars 2026
Les armées américaines et israéliennes ont vraisemblablement eu recours à l’intelligence artificielle pour conduire leurs frappes contre l’Iran, illustrant le rôle de plus en plus important de ces outils dans les guerres contemporaines.
La guerre au Moyen-Orient illustre l’importance prise par l’intelligence artificielle dans les conflits, notamment pour l’analyse de renseignements et la sélection de cibles, mais sa fiabilité et sa place dans le processus de décision de frappes restent au coeur de vifs débats.
À ce stade, les usages précis de l’IA dans le conflit en cours au Moyen-Orient ne sont pas encore connus. Mais, selon les experts, il est fort probable qu’Israël et les États-Unis, qui ont mené des milliers de frappes contre l’Iran depuis le début du conflit le 28 février, l’ont utilisée, notamment pour accélérer la conduite des opérations.
Aujourd’hui, « toutes les puissances militaires significatives investissent énormément dans les applications militaires d’intelligence artificielle », rappelle Laure de Roucy-Rochegonde, de l’Institut français des relations internationales. « Pratiquement toutes les fonctions militaires peuvent être augmentées à l’IA », ajoute-t-elle, citant notamment « la logistique, la reconnaissance, l’observation, la lutte informationnelle, la guerre électronique, la cybersécurité ».
Réduction de la « kill chain »
Outre l’utilisation dans des drones d’attaques et des armes semi-autonomes, l’un des usages les plus connus de ces technologies est la réduction ce que les militaires appellent la « kill chain », soit le temps entre la détection d’une cible et la frappe. L’armée américaine se sert ainsi de la plateforme Maven Smart System (MSS), mise sur pied par Palantir, qui lui permet notamment d’identifier des cibles potentielles et de les hiérarchiser.
Selon le Washington Post, le modèle IA d’Anthropic, Claude, est intégré à Maven et augmente ses capacités d’identification et de simulation.
Les algorithmes « nous permettent d’aller beaucoup plus vite dans le traitement des informations, et surtout d’être plus exhaustifs », explique Bertrand Rondepierre qui dirige l’agence chargée de développer l’IA dans l’armée française (Amiad). L’IA permet d’analyser d’énormes quantités de données, « de l’image satellite, du radar, de l’électromagnétique, du son, de l’image de drone, de la vidéo en temps réel parfois », poursuit l’ingénieur.
Des questions sur la frappe de l’école de Minab
L’usage de l’IA soulève toutefois de nombreuses questions morales et juridiques, notamment sur le contrôle humain de ces technologies. Le débat a émergé notamment avec la guerre à Gaza, où les Israéliens ont utilisé un programme baptisé « Lavender » pour identifier des cibles dans l’enclave palestinienne, avec une marge d’erreur.
Lavender a pu être utilisé à Gaza, selon Laure de Roucy-Rochegonde, « parce que c’était sur un territoire très restreint » et qu’il était « associé à un système de surveillance de masse » des habitants de l’enclave. « Cela paraît moins probable qu’un système de cette envergure ait été mis en place en Iran », détaille-t-elle.
« Si quelque chose tourne mal, qui est responsable? », pointe de son côté Peter Asaro, qui préside l’ONG Comité international pour le contrôle des armes robotisées.
Il a cité le bombardement présumé d’une école en Iran, dans la ville de Minab, qui a fait 150 morts selon les autorités iraniennes. Ni les États-Unis, ni Israël n’ont reconnu avoir été à l’origine de cette frappe, mais Washington a indiqué enquêter.
L’ONU a réclamé que cette enquête soit « rapide » et « transparente », et espéré que « les responsables rendent des comptes ». Plusieurs médias dont le New York Times affirment que le bâtiment était proche de deux sites des Gardiens de la Révolution iraniens. « Ils n’ont pas distingué l’école de la base militaire comme ils auraient dû le faire (…) mais qui sont-ils? », interroge Peter Asaro.
Des humains ou une machine? On ne sait pas à ce stade si l’IA a été utilisée mais si c’est le cas, la question-clé est de savoir « quelle est l’ancienneté des données » utilisées et s’il s’agit d’une « erreur de base de données », estime-t-il.
Seulement aux prémices
Pour Bertrand Rondepierre, penser que les IA « opèrent sans que personne n’ait le contrôle » relève de « la science-fiction ». En France, « le commandement militaire est au centre de l’action et de la conception de ces systèmes », souligne-t-il.
« Il n’y a pas un décideur militaire qui acceptera d’employer de l’IA s’il n’a pas une confiance et un contrôle sur ce qu’il fait », estime Bertrand Rondepierre.
« Ils savent quels risques sont associés, quelles sont les marges de manoeuvre de ces systèmes et dans quel contexte ils peuvent les employer, avec quel niveau de confiance », assure-t-il encore. L’usage de l’IA par les armées n’en est en tout cas qu’à ses « tout débuts », explique Benjamin Jensen, du centre de réflexion CSIS à Washington, qui a participé ces dix dernières années à des expérimentations sur l’IA et la prise de décision militaire.
Les armées n’ont pas encore « fondamentalement repensé la manière dont elles planifient et mènent les opérations, pour tirer pleinement partie de ces innovations », ajoute-t-il: « Il faudra probablement une génération entière pour que nous comprenions réellement comment exploiter tout cela ».

9999999
