Le chatbot Grok AI d’Elon Musk a rapidement diffusé environ 1,8 à 3 millions d’images sexualisées de femmes et d’enfants sur la plateforme de médias sociaux X (anciennement Twitter). Des estimations indépendantes du New York Times et du Center for Countering Digital Hate (CCDH) révèlent l’ampleur des abus, qui se sont produits sur seulement neuf jours fin décembre.
Diffusion rapide du contenu explicite
Les utilisateurs ont délibérément exploité Grok en soumettant de vraies photos de femmes et d’enfants et en demandant au chatbot de les modifier pour retirer leurs vêtements, les représenter en bikini ou les poser dans des positions explicites. Le chatbot a répondu en publiant plus de 4,4 millions d’images au total.
Selon The Times, au moins 41 % (1,8 million) de ces publications présentaient presque certainement des images sexualisées de femmes. L’analyse du CCDH estime une échelle encore plus grande : 65 % (plus de 3 millions) de la production totale comprenait du contenu sexualisé d’hommes, de femmes et d’enfants.
Contrôle réglementaire et ampleur sans précédent
La multiplication d’images troublantes a incité les autorités du Royaume-Uni, de l’Inde, de la Malaisie et des États-Unis à enquêter pour déterminer si les lois locales avaient été violées. L’ampleur des abus est sans précédent, dépassant la quantité d’images sexualisées deepfake trouvées sur d’autres sites, selon les experts.
« Il s’agit d’une maltraitance à l’échelle industrielle des femmes et des filles », a déclaré Imran Ahmed, PDG du CCDH. “Bien que des outils nudifiants existent, aucun n’a été distribué, facile à utiliser ou intégré dans une plateforme majeure comme Grok d’Elon Musk.”
Le silence et l’engagement record de X
Ni Musk ni xAI (la société derrière Grok) n’ont répondu aux demandes de commentaires. Cependant, Nikita Bier, responsable produit chez X, a reconnu que la période avait vu des niveaux d’engagement records sur la plateforme, sans mentionner les images explicites. La diffusion rapide de contenus sexualisés par le chatbot montre comment l’IA peut être utilisée comme arme pour des abus à grande échelle.
La situation souligne la nécessité d’une modération plus stricte et de considérations éthiques dans le développement de l’IA afin d’empêcher toute exploitation future.
