
Macron affirme que Poutine est un « impérialiste révisionniste »
16 mars 2026
13 policiers inculpés pour le meurtre de deux Indiens
16 mars 2026Municipales 2026 : un outil contre les potentielles opérations de désinformation ciblant Wikipédia
Les Français sont appelés à voter dimanche 22 mars pour le second tour des élections municipales. Pour se renseigner sur le scrutin, nombreux sont les électeurs à se rendre sur le site Wikipédia, selon Wikimédia France, l’association chargée de soutenir la plateforme. Quelque « 73 % des Français l’utilisent pour vérifier une information qu’ils ont trouvée ailleurs », affirme Adélaïde Calais, responsable communauté en ligne au sein de l’association.
En 25 ans d’existence, l’encyclopédie collaborative s’est imposée comme un pilier de l’information en ligne, mais sa visibilité en fait la cible d’opérations de désinformation : modifications anonymes, textes orientés, ou encore sources trompeuses. « Aujourd’hui, on a un vrai enjeu de tentatives de manipulation de l’information par différentes personnes et pour des motifs qui peuvent être très éloignés. Ça peut aller de la manipulation politique à de la simple malveillance banale. Mais le problème, c’est que ces tentatives sont de plus en plus armées », souligne Adélaïde Calais.
Afin de garantir l’intégrité de l’information sur sa plateforme en période électorale, Wikimédia France a mis en place un outil, en partenariat avec l’entreprise française Opsci.ai, spécialisée dans l’analyse des données issues des réseaux sociaux. Il s’agit du Wikipédia Sensitivity Meter, qui permet de détecter les pages les plus « sensibles » de l’encyclopédie liées aux élections municipales. Il a été développé grâce à un projet pilote, cofinancé par la Commission européenne, dans le cadre des travaux de l’Observatoire européen des narratifs.
Analyse des « indices de manipulation potentielle »
Concrètement, l’outil permet d’analyser, pour chaque page, « des indices de manipulation potentielle », indique Jordan Ricker, directeur des opérations d’Opsci.ai. Trois indicateurs sont utilisés : la fiabilité des sources, l’intensité de l’activité éditoriale sur la page et le comportement des contributeurs.
Il est possible d’analyser chaque page grâce à son URL, ou d’observer les tendances grâce à un tableau de bord dédié aux élections municipales en France. Les pages concernant les maires sortants ou encore les villes de plus de 30 000 habitants sont inspectées et classées en fonction de leur sensibilité.
« Sur les pages des villes, on va voir apparaître dans le haut du classement des villes auxquelles on ne pense pas forcément et qui ne sont pas forcément traitées autre part que dans la presse quotidienne régionale, mais qui font l’objet de guerres d’édition, de tentatives potentielles de manipulation, ou simplement d’erreurs non corrigées », souligne Jordan Ricker, d’Opsci.ai.
Au lundi 9 mars, c’était la ville d’Annemasse, dans les Alpes, qui remontait en haut du classement des pages les plus sensibles dans la catégorie des villes de plus de 30 000 habitants. En cliquant sur la ville, des détails permettent de comprendre pourquoi. « On voit que la page n’a pas été mise à jour depuis longtemps, donc il y a une potentielle obsolescence des informations. Les citations font référence aux mêmes sources, donc il n’y a pas de pluralisme des sources. Et si je regarde le registre de comportement, on voit que 80 % des éditions ont été faites par des utilisateurs anonymes. C’est un indice. Ça ne veut pas dire qu’il y a une manipulation, ça veut dire que cette page est moins sûre qu’une autre qui aurait été éditée par une majorité de comptes référencés et dont on peut suivre l’ensemble des éditions sur l’encyclopédie », analyse Jordan Ricker.
À lire aussiQu’est ce que Vera, l’IA française contre la désinformation ?
Outiller les contributeurs
Cet outil sert avant tout à faire remonter des signaux d’alerte. « On est sur des indices, et non pas sur un outil magique qui pointerait vers de la manipulation qu’il aurait détectée automatiquement, ce qu’aujourd’hui, on ne peut pas encore faire », résume le directeur des opérations d’Opsci.ai.
Le baromètre est d’abord destiné à la communauté des contributeurs de Wikipédia – qu’on appelle les « wikimédiens » –, qui peut ainsi détecter les pages qui nécessitent une attention particulière. Il s’adresse également aux journalistes et chercheurs. « Et puis de manière générale, il peut être utilisé par tous les citoyens », fait remarquer le directeur des opérations d’Opsci.ai.
Tentatives de manipulations en période électorale
À quelques jours du second tour des élections municipales en France, aucune tentative majeure de manipulation n’a été détectée sur l’encyclopédie. « Wikipédia, dans son histoire récente, a compté quelques tentatives de manipulation d’information coordonnées, notamment autour de certaines élections. Mais on n’en compte pas énormément, heureusement », explique Adélaïde Calais, la responsable communauté en ligne de Wikimédia France.
L’un des exemples les plus marquants en France remonte à 2022, à l’approche de l’élection présidentielle. Selon Wikimédia France, l’équipe numérique d’Éric Zemmour avait tenté de modifier des pages sur Wikipédia avec l’aide de collaborateurs reconnus par la communauté, qui ont créé de multiples comptes, sans les déclarer. « Ils ont essayé, en fait, d’inonder l’encyclopédie d’informations, non seulement sur le candidat Éric Zemmour à l’époque, mais aussi sur toutes les thématiques qui pouvaient avoir trait à son discours. Donc ça pouvait être l’immigration, la sécurité, etc. », détaille Adélaïde Calais. Sept contributeurs ayant alors enfreint les règles de Wikipédia avaient été bannis.
À lire aussiAvec Grokipedia, Elon Musk veut enterrer Wikipédia et imposer sa vérité
Avant d’être déployé pour les élections municipales en France, le Wikipedia Sensitivity Meter a déjà été employé pour les élections en Roumanie et en Moldavie, en 2025. L’outil a alors permis de détecter des opérations de désinformation prorusse. « On a vu des tentatives de réécriture d’événements historiques ou de biographies de personnalités historiques, afin d’orienter un discours dans un sens prorusse et de servir des narratifs portés par le Kremlin ou par les relais du Kremlin en Moldavie », rapporte le directeur des opérations d’Opsci.ai.
Autre exemple courant de manipulation sur la plus grande encyclopédie au monde : l’intégration de sources trompeuses dans des pages pour appuyer de fausses informations. « Le Kremlin crée depuis des années des faux sites d’information pour diffuser ses narratifs manipulatoires. Il y a plusieurs objets à ces opérations. Parmi eux, celui de la reprise de ces sites à d’autres endroits, notamment sur Wikipédia et sur les grands chatbots d’intelligence artificielle conversationnelle », détaille Jordan Ricker.
« Mieux comprendre les mécaniques de propagation des narratifs »
Opsci.AI et Wikimedia France ont pour objectif de lancer d’autres tableaux de bord sur de nouvelles thématiques à l’avenir. « L’idée n’est pas de nous ériger en police de la pensée, mais de mieux comprendre les mécaniques de propagation, de viralité et de circulation des narratifs et des idées », résume Jordan Ricker.
Source : www.france24.com

9999999
