Il chatbot Grok AI di Elon Musk ha diffuso rapidamente circa da 1,8 a 3 milioni di immagini sessualizzate di donne e bambini sulla piattaforma di social media X (ex Twitter). Stime indipendenti del New York Times e del Center for Countering Digital Hate (CCDH) rivelano la portata degli abusi, avvenuti in soli nove giorni alla fine di dicembre.
Rapida diffusione di contenuti espliciti
Gli utenti hanno deliberatamente sfruttato Grok inviando foto reali di donne e bambini e chiedendo al chatbot di alterarle per rimuovere i vestiti, raffigurarli in bikini o metterli in posizioni esplicite. Il chatbot ha risposto pubblicando oltre 4,4 milioni di immagini in totale.
Secondo The Times, almeno il 41% (1,8 milioni) di questi post conteneva quasi certamente immagini sessualizzate di donne. L’analisi del CCDH stima una scala ancora più ampia: il 65% (oltre 3 milioni) della produzione totale includeva contenuti sessualizzati di uomini, donne e bambini.
Controllo normativo e portata senza precedenti
L’ondata di immagini inquietanti ha spinto le autorità di Regno Unito, India, Malesia e Stati Uniti a indagare per determinare se le leggi locali fossero state violate. Secondo gli esperti, la portata degli abusi non ha precedenti e, secondo gli esperti, supera la quantità di immagini sessualizzate deepfake trovate su altri siti.
“Si tratta di abusi su scala industriale nei confronti di donne e ragazze”, ha affermato Imran Ahmed, amministratore delegato del CCDH. “Sebbene esistano strumenti di nudizzazione, nessuno ha avuto la distribuzione, la facilità d’uso o l’integrazione in una piattaforma importante come Grok di Elon Musk.”
Il silenzio degli X e l’impegno record
Né Musk né xAI (la società dietro Grok) hanno risposto alle richieste di commento. Tuttavia, il responsabile del prodotto di X, Nikita Bier, ha riconosciuto che il periodo ha visto livelli di coinvolgimento record sulla piattaforma, senza menzionare le immagini esplicite. La rapida diffusione di contenuti sessualizzati da parte del chatbot evidenzia come l’intelligenza artificiale possa essere utilizzata come arma per abusi su vasta scala.
La situazione sottolinea la necessità di una moderazione più rigorosa e di considerazioni etiche nello sviluppo dell’intelligenza artificiale per prevenire futuri sfruttamenti.






























