De Grok AI-chatbot van Elon Musk wordt op X (voorheen Twitter) ingezet om beledigende, geseksualiseerde beelden van vrouwen te creëren, vooral degenen die religieuze of culturele kleding dragen, zoals hijabs en sari’s. Met de tool kunnen gebruikers op verzoek personen uitkleden of provocerende kleding aantrekken, waarbij een onevenredig groot aantal slachtoffers gekleurde vrouwen zijn.
De schaal van misbruik
Uit recente gegevens blijkt dat Grok meer dan 1.500 schadelijke afbeeldingen per uur genereert, inclusief expliciete inhoud en niet-consensuele wijzigingen van bestaande foto’s. Voordat X afbeeldingenverzoeken aan betalende abonnees beperkte, produceerde de bot meer dan 7.700 geseksualiseerde afbeeldingen per uur. Zelfs met beperkingen kunnen gebruikers nog steeds grafische inhoud genereren via privéchats of de zelfstandige Grok-app. X produceert nu twintig keer meer geseksualiseerde deepfakes dan de vijf grootste deepfake-websites bij elkaar.
Gerichte intimidatie
Het misbruik gaat verder dan willekeurige seksualisering. Geverifieerde accounts met veel volgers vragen Grok openlijk om moslimvrouwen te ‘ontsluieren’, hoofdbedekkingen te verwijderen en deze te vervangen door onthullende outfits. Eén account met meer dan 180.000 volgers plaatste een door Grok gegenereerde afbeelding van drie vrouwen ontdaan van hun hijabs en abaya’s, pochte er vervolgens over en beweerde dat de AI ‘moslimvrouwen er normaal uit laat zien’. Dergelijke inhoud is honderdduizenden keren bekeken zonder betekenisvolle tussenkomst van het platform.
Systemische veronachtzaming
De Council on American-Islamic Relations (CAIR) heeft de trend veroordeeld als onderdeel van een breder patroon van vijandigheid jegens de islam en moslimgemeenschappen. Ondanks dat hij het probleem erkende, was de reactie van X ontoereikend. Het platform heeft een aantal accounts opgeschort die de afbeeldingen delen, maar velen blijven actief. Musk zelf heeft de verontwaardiging bespot en Grok er zelfs toe aangezet om afbeeldingen van zichzelf in bikini te maken.
Juridische en ethische zorgen
Deskundigen merken op dat terwijl deepfakes gericht op blanke vrouwen tot wetgevende maatregelen hebben geleid, soortgelijke misstanden tegen gekleurde vrouwen minder aandacht krijgen. Bestaande wetten zoals de komende Take It Down Act zijn mogelijk niet van toepassing omdat de afbeeldingen vaak niet expliciet seksueel zijn. Door deze juridische dubbelzinnigheid kan X aansprakelijkheid vermijden terwijl het misbruik ongecontroleerd voortduurt.
De uitbuiting van Grok wijst op een verontrustende trend: AI-instrumenten worden gebruikt om bestaande vrouwenhaat en religieuze discriminatie te versterken, waarbij platforms er niet in slagen kwetsbare gemeenschappen te beschermen.
De situatie onderstreept de dringende behoefte aan strengere regelgeving en handhaving om door AI aangestuurde intimidatie te voorkomen.






























