
les célibataires peuvent désormais adopter des enfants étrangers
15 mars 2026
Nouvel incendie violent près de Los Angeles, des milliers d’évacuations
15 mars 2026Comment nos robots IA ignorent leur programmation et donnent des super pouvoirs aux pirates
Bienvenue à l’ère du piratage de l’IA, dans laquelle les bonnes invites font des amateurs des maîtres hackers.
Un groupe de cybercriminels a récemment utilisé des chatbots à intelligence artificielle disponibles dans le commerce pour voler des données sur près de 200 millions de contribuables. Les robots ont fourni le code et les plans prêts à être exécutés pour contourner les pare-feu.
Bien qu’ils aient été explicitement programmés pour refuser d’aider les pirates informatiques, les robots ont été amenés à encourager la cybercriminalité.
Selon un récent rapport de la société israélienne de cybersécurité Gambit Security, des pirates ont utilisé le mois dernier Claude, le chatbot d’Anthropic, pour voler 150 gigaoctets de données auprès d’agences gouvernementales mexicaines.
Claude a d’abord refusé de coopérer aux tentatives de piratage et a même refusé les demandes visant à dissimuler les traces numériques des pirates, ont déclaré les experts qui ont découvert la violation. Le groupe a frappé le robot avec plus de 1 000 invites pour contourner les mesures de protection et convaincre Claude qu’ils étaient autorisés à tester les vulnérabilités du système.
Les sociétés d’IA ont tenté de créer des chaînes incassables sur leurs modèles d’IA pour les empêcher de participer à des activités telles que la génération de contenu sexuel impliquant des enfants ou de contribuer à l’approvisionnement et à la création d’armes. Ils embauchent des équipes entières pour essayer de briser leurs propres chatbots avant que quelqu’un d’autre ne le fasse.
Mais dans ce cas-ci, les pirates ont continuellement incité Claude à faire preuve de créativité et ont pu « jailbreaker » le chatbot pour les aider. Lorsqu’ils ont rencontré des problèmes avec Claude, les pirates ont utilisé ChatGPT d’OpenAI pour analyser les données et savoir quelles informations d’identification étaient nécessaires pour se déplacer dans le système sans être détecté.
Le groupe a utilisé l’IA pour trouver et exploiter les vulnérabilités, contourner les défenses, créer des portes dérobées et analyser les données en cours de route pour prendre le contrôle des systèmes avant de voler 195 millions d’identités à neuf systèmes gouvernementaux mexicains, y compris les dossiers fiscaux, l’immatriculation des véhicules ainsi que les détails de naissance et de propriété.
L’IA « ne dort pas », a déclaré Curtis Simpson, directeur général de Gambit Security, dans un article de blog. « Cela réduit le coût de la sophistication à un niveau proche de zéro. »
« Aucun investissement dans la prévention n’aurait rendu cette attaque impossible », a-t-il déclaré.
Anthropic n’a pas répondu à une demande de commentaire. Elle a déclaré à Bloomberg qu’elle avait interdit les comptes concernés et perturbé leur activité après une enquête.
OpenAI a déclaré être au courant de la campagne d’attaque menée à l’aide des modèles d’Anthropic contre les agences gouvernementales mexicaines.
« Nous avons également identifié d’autres tentatives de l’adversaire visant à utiliser nos modèles pour des activités qui violent nos politiques d’utilisation ; nos modèles ont refusé de se conformer à ces tentatives », a déclaré un porte-parole d’OpenAI dans un communiqué. « Nous avons interdit les comptes utilisés par cet adversaire et apprécions le travail de sensibilisation de Gambit Security. »
Les cas de piratage génératif assisté par l’IA se multiplient et la menace de cyberattaques émanant de robots agissant seuls n’est plus de la science-fiction. Avec l’IA qui fait ce qu’elle veut, les novices peuvent causer des dégâts en quelques instants, tandis que les pirates informatiques expérimentés peuvent lancer de nombreuses attaques plus sophistiquées avec beaucoup moins d’efforts.
Plus tôt cette année, Amazon a découvert qu’un pirate informatique peu qualifié utilisait une IA disponible dans le commerce pour violer 600 pare-feu. Un autre a pris le contrôle de des milliers de robots aspirateurs DJI avec l’aide de Claude, et j’ai pu accéder au flux vidéo en direct, à l’audio et aux plans d’étage d’étrangers.
« Le genre de choses que nous observons aujourd’hui ne sont que les premiers signes du genre de choses que les IA seront capables de faire dans quelques années », a déclaré Nikola Jurkovic, un expert travaillant sur la réduction des risques liés à l’IA avancée. « Nous devons donc nous préparer de toute urgence. »
À la fin de l’année dernière, Anthropic a averti que la société avait atteint un «point d’inflexion » dans l’utilisation de l’IA dans la cybersécurité après avoir perturbé ce que l’entreprise a qualifié de campagne d’espionnage parrainée par l’État chinois qui a utilisé Claude pour infiltrer 30 cibles mondiales, notamment des institutions financières et des agences gouvernementales.
L’IA générative a également été utilisé pour extorquer des entreprises, créer des profils en ligne réalistes par des agents nord-coréens pour obtenir des emplois dans des entreprises américaines du classement Fortune 500, organiser des escroqueries amoureuses et gérer un réseau de comptes de propagande russe.
Au cours des dernières années, les modèles d’IA sont passés de la capacité à gérer des tâches ne durant que quelques secondes aux agents d’IA d’aujourd’hui travaillant de manière autonome pendant de nombreuses heures. La capacité de l’IA à accomplir de longues tâches est doubler tous les sept mois.
« Nous ne savons tout simplement pas quelle est la limite supérieure des capacités de l’IA, car personne n’a établi de critères suffisamment difficiles pour que l’IA ne puisse pas les réaliser », a déclaré Jurkovic, qui travaille chez MÈTREune organisation à but non lucratif qui mesure les capacités du système d’IA à causer des dommages catastrophiques à la société.
Jusqu’à présent, l’utilisation la plus courante de l’IA à des fins de piratage a été l’ingénierie sociale. De grands modèles de langage sont utilisés pour rédiger des e-mails convaincants afin de duper les gens et de leur faire perdre leur argent, provoquant ainsi un problème. huit fois augmentation des plaintes des Américains plus âgés, qui ont perdu 4,9 milliards de dollars en fraude en ligne en 2025.
« Les messages utilisés pour susciter un clic de la part de la cible peuvent désormais être générés par utilisateur de manière plus efficace et avec moins de signes révélateurs de phishing », tels que des fautes de grammaire et d’orthographe, a déclaré Cliff Neuman, professeur agrégé d’informatique à l’USC.
Les entreprises d’IA réagissent en utilisant l’IA pour détecter les attaques, code de vérification et corriger les vulnérabilités.
« En fin de compte, le grand déséquilibre vient du besoin des bons acteurs d’être en sécurité à tout moment, et des mauvais acteurs de n’avoir raison qu’une seule fois », a déclaré Neuman.
Les enjeux autour de l’IA augmentent à mesure qu’elle infiltre tous les aspects de l’économie. Beaucoup s’inquiètent du fait que l’on ne comprend pas suffisamment comment garantir qu’il ne puisse pas être utilisé à mauvais escient par de mauvais acteurs ou poussé à devenir un voyou.
Même les leaders du secteur ont mis en garde les utilisateurs contre une éventuelle utilisation abusive de l’IA.
Dario Amodei, PDG d’Anthropic, soutient depuis longtemps que les systèmes d’IA en cours de construction sont imprévisibles et difficiles à contrôler. Ces IA ont montré des comportements aussi variés que tromperie et chantageà intrigant et tricherie en piratant un logiciel.
Pourtant, les grandes sociétés d’IA – OpenAI, Anthropic, xAI et Google – ont signé des contrats avec le gouvernement américain pour utiliser leurs IA dans des opérations militaires.
La semaine dernière, le Pentagone a ordonné aux agences fédérales de éliminer progressivement Claude après que l’entreprise a refusé de revenir sur sa demande selon laquelle elle n’autoriserait pas l’utilisation de son IA pour la surveillance nationale de masse et pour des armes entièrement autonomes.
« Les systèmes d’IA d’aujourd’hui sont loin d’être suffisamment fiables pour fabriquer des armes entièrement autonomes », a déclaré Amodei. Actualités CBS.
Notre analyse Actus-Eco.fr : Ce contenu met en lumière les mouvements récents du marché et les décisions économiques importantes. Pour approfondir, parcourez nos articles sur les marchés financiers et sur les prix du carburant.
Source : www.latimes.com – Traduction Google.

9999999
