Les Canaries s’apprêtent à accueillir les 150 passagers du navire de croisière où un foyer d’hantavirus a été détecté
9 mai 2026
La confiance des consommateurs américains tombe à un niveau record en raison de l’angoisse inflationniste
9 mai 2026Cybersécurité : ChatGPT, Mistral, Claude, Grok, Perplexity, Gemini… Gare aux données personnelles et industrielles livrées aux agents IA
Analyse : Nos journalistes proposent quelques éléments à retenir de cette actualité.
L'équipe propose un aperçu synthétique de « Cybersécurité : ChatGPT, Mistral, Claude, Grok, Perplexity, Gemini… Gare aux données personnelles et industrielles livrées aux agents IA ».
Faits marquants
Confier ses données à l’IA conversationnelle présente des dangers, notamment pour des entreprises qui peuvent y livrer des secrets industriels.
Alors que les attaques informatiques contre toute sorte de bases de données se multiplient ces derniers mois à un rythme effréné (418 depuis août 2025), les mises en garde de spécialistes de la cybersécurité sont précieuses.
Si naviguer sur Internet présente des risques connus, le danger est moins établi concernant les géants de l’IA conversationnelle tels que ChatGPT, Mistral, Claude, Grok, Perplexity ou encore Gemini.
Patron de l’entreprise Adamentis basée à Perpignan, Vincent Podlunsek met en garde contre ce « nouveau danger » de vouloir mettre dans l’IA des informations personnelles, voire de son entreprise, pour construire ses prompts.
« C’est une chose très importante », souligne l’expert. « Sans s’en rendre compte, on donne toutes les données de notre entreprise et on croit qu’on est en cercle fermé alors que tout peut être récupéré, notamment en récupérant des mots de passe via des bases de données hackées par ailleurs. Et comme on a souvent les mêmes mots de passe, l’IA est attaquable, car les voleurs peuvent se connecter à votre place ».
« Ensuite, on nourrit l’IA d’informations importantes sur son entreprise et elle s’enrichit de ces données qui peuvent lui servir pour apprendre des choses, et les retranscrire à d’autres utilisateurs ».
Et pour cet expert, « dans toute conversation IA, il peut y avoir des données qu’on ne voudrait pas spécialement rendre publiques. On ne se rend pas compte de ce qu’on pourrait faire avec l’IA. Tout est réutilisé pour la nourrir et l’améliorer ».
« Par exemple, quand on crée un analyse pour mieux faire fonctionner son entreprise ou rationaliser des choses, on nourrit de fait l’IA afin de l’améliorer. Et dedans, il peut forcément y avoir des données propres à l’entreprise qui touchent aussi au secret industriel. C’est important d’avoir le contrôle d’un humain sur ces outils ».
Face à ces dangers, une seule solution pour l’expert perpignanais : « Il faut douter de tout et tout contrôler ».
Source : www.lindependant.fr
Conclusion : Les prochaines informations compléteront notre analyse.

9999999
