/2026/04/22/69e882bb52602475798208.jpg?w=150&resize=150,150&ssl=1)
un homme de 22 ans, surnommé « HexDex », placé en garde à vue après de nombreuses cyberattaques contre des institutions – franceinfo
22 avril 2026
La Nasa présente son télescope Roman en vue de réaliser un « Atlas de l’univers »
22 avril 2026entre coordination et adaptation en temps réel, comment des « essaims IA » pourraient saper notre démocratie sans que l’on s’en rende compte
Analyse : Les rédacteurs ont examiné cette actualité pour en tirer quelques conclusions.
Un point rapide sur l'article « entre coordination et adaptation en temps réel, comment des « essaims IA » pourraient saper notre démocratie sans que l’on s’en rende compte » selon nos journalistes.
Résumé rapide
Des chercheurs alertent dans une étude sur une menace en approche, baptisée « essaims IA ». Après les bots sur les réseaux sociaux, ces essaims regrouperaient de faux profils alimentés par l’IA et qui pourraient influencer l’opinion publique.
La prochaine menace après les bots sur les réseaux sociaux? Alors que certains misent sur ces logiciels pour répandre de fausses informations sur les plateformes, des chercheurs s’inquiètent d’un danger encore plus grand: les « essaims IA ». Il s’agit de faux profils alimentés par l’intellligence artificielle, qui sont capables de se coordonner et de s’adapter en temps réel. Objectif: infiltrer des groupes et influencer l’opinion publique, alertent-ils dans une étude, publiée dans la revue Science.
« Le danger ne réside plus seulement dans les fausses informations, mais dans l’effondrement du fondement même du discours démocratique – les voix indépendantes – lorsqu’un seul acteur peut contrôler des milliers de profils uniques générés par l’IA », a mis en garde un des auteurs, Jonas R. Kunst, dans un communiqué.
Avec les progrès dans le domaine de l’intelligence artificielle, notamment concernant les grands modèles de langage, une seule et même personne pourrait en effet déployer des milliers de comptes générés par IA, mais semblant authentiques.
Coordination et adaptation
Capables d’imiter les humains, ces faux comptes pourraient infiltrer des communautés en ligne, influencer les conversations ou pire encore des élections. « Contrairement aux botnets traditionnels, ces agents se coordonnent en temps réel, s’adaptent aux réactions et maintiennent des discours cohérents sur des milliers de compte », souligne un communiqué de l’université de la Colombie-Britannique.
Ces essaims IA seraient en effet en mesure de mener des millions de micro-tests afin d’identifier les messages les plus convaincants et ainsi créer un consensus artificiel conçu pour manipuler le débat démocratique. En plus d’échapper à la détection en imitant les humains, ils pourraient également identifier des groupes vulnérables en cartographiant les réseaux sociaux, pour ensuite se fondre dans la masse en adoptant leur jargon.
Autre problème avec ces essaims IA: contrairement à une campagne de propagande ponctuelle, ils sont actifs en permanence. Ils pourraient ainsi infiltrer des communautés pendant des années, changeant lentement et subtilement le langage et même l’identité d’un groupe, a alerté Jonas R. Kunst.
De premiers signes d’alerte
Pour le moment, le déploiement de ces essaims IA à grande échelle reste théorique, ont fait savoir les chercheurs. Mais ce n’est pas pour autant qu’il ne faut pas s’en inquiéter dès maintenant, car de premiers signes d’alerte ont émergé. Parmi eux figurent les deepfakes et les faux médias, qui ont influencé des débats électoraux aux États-Unis, à Taïwan ou encore en Inde, a prévenu Kevin Leyton-Brown, autre auteur de l’étude. Les prochaines élections sont susceptibles de servir de terrain d’expérimentation à ces faux comptes, estiment les chercheurs.
« Les prochaines années seront décisives pour déterminer si nous parviendrons à lutter contre la prochaine génération d’opérations d’influence basées sur l’IA, conçues pour nuire aux sociétés et aux démocraties et les influencer », a averti Daniel Thilo Schroeder, autre auteur.
Les chercheurs recommandent plusieurs mesures pour se protéger de cette manipulation, à commencer par la réalisation de simulations de ces attaques. Cela permettra de comprendre et de prédire le fonctionnement et l’adaptation des essaims d’IA, pour ensuite rendre leur utilisation aussi difficile que possible. Comme l’a déclaré Daniel Thilo Schroder, « le but est de rendre la manipulation si coûteuse et faible que les campagnes de désinformation coordonnées s’effondrent rapidement et ne soient plus rentables ».
Source : www.bfmtv.com
Conclusion : La rédaction gardera un œil attentif sur cette information.

9999999
