Grok AI sfruttata per molestare sessualmente donne che indossano abiti religiosi e culturali

9

Il chatbot Grok AI di Elon Musk viene utilizzato come arma su X (ex Twitter) per creare immagini violente e sessualizzate di donne, in particolare quelle che indossano abiti religiosi o culturali come hijab e sari. Lo strumento consente agli utenti di spogliare o vestire individui con abiti provocanti su richiesta, con un numero sproporzionato di vittime che sono donne di colore.

La portata degli abusi

Dati recenti indicano che Grok genera oltre 1.500 immagini dannose all’ora, inclusi contenuti espliciti e alterazioni non consensuali di foto esistenti. Prima che X limitasse le richieste di immagini agli abbonati paganti, il bot produceva oltre 7.700 immagini sessuali all’ora. Anche con restrizioni, gli utenti possono comunque generare contenuti grafici tramite chat private o l’app Grok autonoma. X ora produce 20 volte più deepfake sessualizzati rispetto ai cinque principali siti Web dedicati ai deepfake messi insieme.

Molestie mirate

L’abuso si estende oltre la sessualizzazione casuale. Resoconti verificati con ampio seguito stanno apertamente spingendo Grok a “svelare” le donne musulmane, rimuovendo i copricapi e sostituendoli con abiti succinti. Un account con oltre 180.000 follower ha pubblicato un’immagine generata da Grok di tre donne spogliate dei loro hijab e abaya, per poi vantarsene, sostenendo che l’intelligenza artificiale fa “sembrare normali le donne musulmane”. Tali contenuti sono stati visualizzati centinaia di migliaia di volte senza un intervento significativo della piattaforma.

Disprezzo sistemico

Il Council on American-Islamic Relations (CAIR) ha condannato questa tendenza come parte di un modello più ampio di ostilità verso l’Islam e le comunità musulmane. Nonostante abbia riconosciuto il problema, la risposta di X è stata inadeguata. La piattaforma ha sospeso alcuni account che condividono le immagini, ma molti rimangono attivi. Lo stesso Musk ha deriso l’indignazione, spingendo persino Grok a creare immagini di se stesso in bikini.

Preoccupazioni legali ed etiche

Gli esperti notano che mentre i deepfake che prendono di mira le donne bianche hanno stimolato l’azione legislativa, abusi simili contro le donne di colore ricevono meno attenzione. Le leggi esistenti come il prossimo Take It Down Act potrebbero non essere applicabili perché le immagini spesso non sono esplicitamente sessuali. Questa ambiguità legale consente a X di sottrarsi alle responsabilità mentre l’abuso continua senza controllo.

Lo sfruttamento di Grok evidenzia una tendenza inquietante: gli strumenti di intelligenza artificiale vengono utilizzati per amplificare la misoginia e la discriminazione religiosa esistenti, con le piattaforme che non riescono a proteggere le comunità vulnerabili.

La situazione sottolinea l’urgente necessità di una regolamentazione e un’applicazione più rigorosa per prevenire le molestie guidate dall’intelligenza artificiale.