
de 18 ans de prison à la perpétuité encourue par les six accusés
13 avril 2026/2026/04/13/69dc8e08cf787195805393.jpg?w=150&resize=150,150&ssl=1)
Heure, dispositif concerné, réaction des marchés… Ce que l’on sait de l’annonce de Donald Trump d’un blocus naval dans le détroit d’Ormuz – franceinfo
13 avril 2026Analyse : Quelques observations de notre équipe sur cette actualité récente.
Voici l'avis général de nos rédacteurs sur « L’IA militaire peut-elle être encadrée par le droit international ? ».
Résumé synthétique
Depuis le début de la guerre en Iran, les Etats-Unis et Israël normalisent et revendiquent l’usage de l’intelligence artificielle militaire. L’utilisation de ces technologies posent des questions éthiques et juridiques : qui prend la décision ? Qui est responsable ? Existe-t-il des normes juridiques spécifiques pour réguler l’utilisation de l’IA par les armées ? C’est l’objet des recherches de Louis Perez, docteur en droit international, chercheur post-doctorant au Centre Thucydide de l’Université Paris-Panthéon Assas.
De la spéculation à l’usage massif : l’IA s’impose sur le champ de bataille
En 2019, lorsque Louis Perez commence sa thèse, l’intelligence artificielle militaire était encore cantonnée « à la prospective, on parlait beaucoup de robots tueurs « . L’intelligence artificielle militaire a basculé en quelques années sous l’effet de l’essor global de l’IA et « de la guerre à Gaza » lors de laquelle « les médias israéliens révèlent l’utilisation massive de l’IA dans les opérations militaires menées par Israël ». Son usage documenté dans des conflits récents. Avec ces révélations « un sujet assez prospectif devient réel avec des informations concrètes« , observe le chercheur, décrivant une rupture nette entre réflexion théorique et pratiques militaires assumées.
L’IA militaire est utilisée « pour une multitude d’objets » puisqu’elle permet notamment « d’augmenter les compétences existantes », par exemple, elle permet de traiter des masses de données pour identifier des cibles avec une rapidité inédite, transformant profondément les opérations. Cette capacité entraîne une explosion quantitative des « cibles potentielles » avec en passant de « 50 cibles par an à 100 par jour aujourd’hui « . Une dynamique qui pose directement la question d’un ciblage moins contrôlé et de ses conséquences sur les populations civiles.
Une responsabilité brouillée face à un droit dépassé
Le droit international repose sur l’intention, distinguant crime de guerre et simple violation : « si on cible délibérément des civils, on est face à un crime de guerre » alors que si « on cible par erreur, on n’est pas face à un crime de guerre […] mais une violation du droit des conflits armés ». Dans un contexte algorithmique cela pose un problème car « on ne sait pas exactement comment est-ce que ça se passe à l’intérieur de la machine militaire et de l’intelligence artificielle », ce qui rend la responsabilité difficile à établir.
S’il n’existe pas de vide juridique puisque « il y a des règles » à ce sujet, leur application devient plus incertaine avec l’IA, qui peut en saper les fondements. Si ces règles « sont déjà difficiles à faire appliquer en temps normal lorsqu’on a une technologie qui permet d’encore moins les respecter cela conduite à encore plus de violations ». Pour l’instant, il n’y a aucun consensus international n’émerge pour encadrer spécifiquement son usage militaire.
Source : www.radiofrance.fr
Conclusion : La rédaction suivra cette actualité pour vous fournir un point de vue complet.

9999999