
350 000 personnes sans abri dont 735 sont mortes
19 mars 2026
Qui est Hossein Dehghan, le nouveau secrétaire du Conseil suprême de sécurité nationale iranien?
19 mars 2026L’Australie met en cause X pour la diffusion « particulièrement systémique » de contenus pédopornographiques
Accusée de laisser circuler des contenus pédopornographiques à une échelle inédite, la plateforme X d’Elon Musk est dans le viseur du régulateur australien. En cause? Des failles persistantes de modération et les dérives de son chatbot Grok.
Chez X, ex-Twitter, à chaque jour son nouvel éclat. Cette fois-ci, la plateforme d’Elon Musk se retrouve dans le viseur du régulateur australien, qui l’accuse de laisser prospérer des contenus pédopornographiques à une échelle inédite parmi les grands réseaux sociaux.
Dans une lettre adressée en janvier à la plateforme, révélée par le Guardian Australia, l’autorité de sécurité en ligne évoque un phénomène « particulièrement systémique ». Une formule lourde de sens, qui intervient en plein scandale autour de Grok, le chatbot de la plateforme, accusé d’avoir généré des images sexualisées de femmes et d’enfants sans leur consentement. Une dérive qualifiée d’ »abjecte » par le premier ministre australien Anthony Albanese, et qui a précipité l’intervention du régulateur.
Hashtags détournés
Dans ce courrier, la responsable des opérations réglementaires d’eSafety, Heidi Snell, rappelle une promesse fondatrice de Musk lors de son rachat de la plateforme en 2022: faire de l’élimination de l’exploitation des enfants une « priorité numéro 1 ». Deux ans plus tard, le constat est sévère.
« La disponibilité du CSEM (matériel d’exploitation sexuelle d’enfants, NDLR) continue d’apparaître particulièrement systémique sur X », observe-t-elle. Non seulement les contenus d’exploitation sexuelle de mineurs persistent, mais ils seraient, selon l’autorité, plus accessibles que sur « tout autre service grand public ».
L’évolution des pratiques inquiète particulièrement les régulateurs. Si certaines mesures pour lutter contre les bots en octobre 2025 ont permis de réduire l’usage de mots-clés explicitement associés à ces contenus pédopornographiques, un phénomène plus insidieux s’est développé: le détournement de hashtags anodins. Ces derniers, combinés entre eux, permettent de contourner les systèmes de détection.
« Nous sommes préoccupés par le fait que des hashtags apparemment anodins soient détournés pour promouvoir le CSEM, notamment lorsqu’ils sont utilisés conjointement. Le fait que certains de ces termes aient des usages anodins signifie que les utilisateurs risquent d’être exposés involontairement à du CSEM, même s’ils cherchent à utiliser le service X de manière légitime », observe Heidi Snell.
Résultat, des utilisateurs ordinaires peuvent être exposés à des contenus pédopornographiques sans les avoir recherchés. Une porosité qui brouille la frontière entre usage légitime et zones criminelles, et qui souligne les limites des outils automatisés.
eSafety envisage également d’adresser des demandes de retrait à X concernant des images générées par Grok montrant des personnes dévêtues, sous réserve de la réponse du réseau social. L’autorité de régulation a également noté qu’une analyse menée par AI Forensics suggérait que Grok générait et publiait également du contenu terroriste sur X.
Quelques contenus supprimés
Face à ces accusations, X oppose une ligne de défense classique mais structurée. L’entreprise revendique une politique de « tolérance zéro » et affirme que plus de 99% des comptes liés à l’exploitation sexuelle d’enfants sont supprimés de manière proactive avant même qu’un signalement ne soit reçu. Elle met également en avant ses systèmes automatisés et sa capacité d’adaptation face aux stratégies des acteurs malveillants.
« Les termes mentionnés dans votre lettre ne peuvent pas être utilisés comme des signaux « forts » de (contenu pédopornographique) sur la plateforme X », observe le réseau social. Votre lettre contient des allégations graves… mais ne précise ni les URL ni les identifiants de compte associés au contenu. »
Sur le cas précis de Grok, X évoque des « protocoles d’incident robustes » déclenchés lors du scandale des nus générées par Grok. Au total, 4.500 contenus, dont de nombreuses images de femmes en bikini, auraient été supprimés en deux semaines en janvier 2026. Plus de 674 comptes auraient également été suspendus pour violation de la politique de X relative à l’exploitation sexuelle des enfants. Un détail quand on sait que l’outil d’IA aurait généré près de trois millions d’images sexualisées en seulement 11 jours fin 2025, dont 23.000 représentant des mineurs, selon une étude du Center for Countering Digital Hate (CCDH).
Ambiguïtés politiques
Un porte-parole d’eSafety a déclaré que l’organisme de réglementation « continue d’évaluer et d’enquêter sur la conformité de X » aux codes et normes de l’industrie en matière de contenus pédopornographiques.
Malgré la fermeté affichée, les autorités australiennes elles-mêmes peinent à adopter une ligne cohérente. Si Anthony Albanese a publiquement condamné la plateforme, son gouvernement continue de communiqué sur X. Entre 2022 et 2024, plus de 4,26 millions de dollars d’argent public ont été consacrés à des campagnes publicitaires sur le réseau social du milliardaire. .
L’épisode Grok est loin d’être un cas isolé. Désinformation, dérives algorithmiques, propos extrêmes générés par ses propres outils,… Depuis son rachat, X et son outil d’IA accumulent les controverses. Dernier exemple en date le 16 mars. La société mère de X, xAI, a été poursuivie en justice par trois adolescentes, dont deux sont mineures aux États-Unis, qui affirment que Grok a utilisé leurs photos pour produire et diffuser du matériel pédopornographique. Une affaire qui pourrait faire jurisprudence sur la responsabilité des IA génératives. Entre deux propos antisémites et racistes, Grok s’est même autoproclamé « MechaHitler » l’an dernier. Reste à savoir si les promesses répétées d’Elon Musk suffiront encore longtemps à contenir les régulateurs.
Source : www.bfmtv.com

9999999
