
des images partagées par l’armée israélienne montrent une opération au sol contre des hommes du Hezbollah
12 mars 2026
Comment les cargos essayent de passer par le détroit d’Ormuz en modifiant leur AIS
12 mars 2026
Détournées pour produire des deepfakes ou falsifier des photographies, les intelligences artificielles sont souvent accusées d’avoir décuplé le flot de désinformation qui inonde les réseaux sociaux. Les chatbots d’IA sont également épinglés pour le manque de fiabilité de leur travail de vérification des informations. Les agents conversationnels comme Grok, Gemini ou ChatGPT peuvent parfois inventer de toutes pièces des événements lorsqu’on les interroge pour vérifier certains faits.
Pour pallier les limitations des IA, une ONG française, LaReponse.tech, a lancé en novembre 2024 un chatbot d’IA spécifiquement dédié à la vérification des faits : Vera. L’ONG dit avoir reçu plus de 500 000 questions d’internautes depuis son lancement en France et dans des pays d’Afrique de l’Ouest.
L’ONG a ainsi déployé l’application en Côte d’Ivoire et en Guinée pour les élections présidentielles qui ont lieu dans ces pays en octobre et décembre 2025. Vera s’attend à recevoir pendant le mois de mars, marqué par les élections municipales en France, entre 60 000 et 140 000 questions.
Un chatbot de vérification des faits
Le projet Vera est né au lendemain des élections législatives en France en 2024, un scrutin qui a été victime « d’une vague de désinformation massive » selon Florian Gauthier, cofondateur de Vera. Il évoque les difficultés qu’il a alors rencontrées pour accéder à une information fiable :
« On a réalisé qu’il était hyper difficile de vérifier les faits avec des outils classiques comme les IA généralistes : toutes les études montrent qu’elles [peuvent être] empoisonnées par des sources qui ne sont pas fiables.
On s’est dit qu’il manque un outil qui permettrait de vérifier l’information instantanément, mais uniquement à partir de sources fiables, c’est-à dire des sources qui respectent un certain nombre de standards d’impartialité, de sérieux des équipes de journalistes et de neutralité. »
Le principe de fonctionnement de Vera est simple. Accessible gratuitement, l’application est une IA qui permet de vérifier les faits en lui posant une question depuis WhatsApp, Instagram, ou par appel téléphonique.
Pour accéder au service sur WhatsApp, il suffit d’enregistrer le numéro 09 74 99 12 95 dans ses contacts, puis de poser sa question sur la messagerie.
Le chatbot Vera peut être aussi consulté ci-après :
Des réponses à partir de sources vérifiées
Lorsqu’on lui pose une question, Vera génère ses réponses à partir de sources vérifiées. « Vera comprend vos questions et va chercher en temps réel sa réponse dans une base de 500 sources d’informations différentes. Si elle trouve l’information, elle va synthétiser la réponse », décrit Florian Gauthier. Dans sa réponse, l’IA oriente également l’utilisateur vers des articles de fact-checking ou de médias reconnus.
Mais contrairement à ce qui peut se passer avec les IA classiques, Vera n’essaie pas d’inventer des faits lorsqu’elle ne trouve pas de réponse.
« Si Vera ne trouve pas d’informations fiables pour répondre à la question, elle va simplement dire : ‘Je n’ai pas trouvé l’information fiable pour répondre à votre question.’ C’est ce qui fait qu’on on a quasiment pas d’hallucination avec Vera, parce qu’elle n’invente pas de fait, elle n’essaie pas de répondre à une question lorsqu’elle n’a pas de source fiable », assure le cofondateur de Vera.
Si par exemple on demande à Vera si les élections présidentielles américaines de 2020 ont été truquées – une fausse accusation encore réitérée en ce début d’année par Donald Trump –, l’application répond que ces allégations de fraudes « n’ont pas été prouvées ». Pour justifier sa réponse, l’IA indique que l’Agence de cybersécurité et de sécurité des infrastructures (CISA), une agence gouvernementale américaine chargée de la protection des infrastructures informatiques des États-Unis, a assuré que l’élection de 2020 a été « l’une des plus sûres de l’histoire américaine ». Vera renvoie enfin comme source de sa réponse un lien vers un article de vérification d’AFP Factuel, le service de fact checking de l’AFP.

L’application ne permet cependant pas – pour le moment – de réaliser des vérifications de deepfakes, comme des images ou des vidéos générées par IA. On peut cependant lui demander de vérifier des affirmations par écrit, via la messagerie Whatsapp, ou oralement via un appel téléphonique.
Des médias vérifiés et des organismes de fact-checking comme source
Vera déclare baser ses réponses sur un corpus de plus de 500 sources vérifiées. « Parmi elles, on trouve des organismes de fact-checking qui respectent des standards européens et internationaux en matière d’impartialité, de neutralité et de rigueur, comme ceux de l’European Fact-Checking Standards Network (EFCSN) au niveau européen, et l’International Fact-Checking Network (IFCN) au niveau international », pointe Florian Gauthier.
L’application s’appuie également sur une liste de médias établie par Courrier international et basée sur la Journalism Trust Initiative (JTI), « un standard permettant d’évaluer le sérieux et la qualité des sources du côté des médias », décrypte le cofondateur de Vera.
Dernier détail, l’anonymat des questions est garanti par Vera. « L’application ne stocke aucune donnée personnelle », tient à préciser Florent Gauthier.
France 24 est membre du réseau de fact-checking IFCN, mentionné dans cet article.

9999999
