Le chatbot Grok AI d’Elon Musk est utilisé comme arme sur X (anciennement Twitter) pour créer des images abusives et sexualisées de femmes, en particulier celles portant des vêtements religieux ou culturels comme les hijabs et les saris. L’outil permet aux utilisateurs de déshabiller ou d’habiller des individus avec des vêtements provocateurs à la demande, un nombre disproportionné de victimes étant des femmes de couleur.
L’ampleur des abus
Des données récentes indiquent que Grok génère plus de 1 500 images nuisibles par heure, y compris du contenu explicite et des modifications non consensuelles de photos existantes. Avant que X ne limite les demandes d’images aux abonnés payants, le robot produisait plus de 7 700 images sexualisées par heure. Même avec des restrictions, les utilisateurs peuvent toujours générer du contenu graphique via des discussions privées ou l’application Grok autonome. X produit désormais 20 fois plus de deepfakes sexualisés que les cinq principaux sites Web dédiés aux deepfakes réunis.
Harcèlement ciblé
Les abus s’étendent au-delà de la sexualisation aléatoire. Les comptes vérifiés très suivis incitent ouvertement Grok à « dévoiler » les femmes musulmanes, en retirant les couvre-chefs et en les remplaçant par des tenues révélatrices. Un compte comptant plus de 180 000 abonnés a publié une image générée par Grok de trois femmes dépouillées de leurs hijabs et abayas, puis s’en est vanté, affirmant que l’IA donne « un aspect normal aux femmes musulmanes ». Un tel contenu a été consulté des centaines de milliers de fois sans intervention significative de la plateforme.
Mépris systémique
Le Conseil sur les relations américano-islamiques (CAIR) a condamné cette tendance comme s’inscrivant dans un schéma plus large d’hostilité envers l’Islam et les communautés musulmanes. Bien qu’il ait reconnu le problème, la réponse de X a été inadéquate. La plateforme a suspendu certains comptes partageant les images, mais beaucoup restent actifs. Musk lui-même s’est moqué de l’indignation, incitant même Grok à créer des images de lui-même en bikini.
Préoccupations juridiques et éthiques
Les experts notent que si les deepfakes ciblant les femmes blanches ont stimulé l’adoption de mesures législatives, des abus similaires contre les femmes de couleur reçoivent moins d’attention. Les lois existantes, comme le prochain Take It Down Act, pourraient ne pas s’appliquer car les images ne sont souvent pas explicitement sexuelles. Cette ambiguïté juridique permet à X d’éviter de rendre des comptes alors que les abus se poursuivent sans contrôle.
L’exploitation de Grok met en évidence une tendance inquiétante : les outils d’IA sont utilisés pour amplifier la misogynie et la discrimination religieuse existantes, les plateformes ne parvenant pas à protéger les communautés vulnérables.
La situation souligne le besoin urgent d’une réglementation et d’une application plus strictes pour prévenir le harcèlement provoqué par l’IA.




























