Grok-KI wird ausgenutzt, um Frauen in religiöser und kultureller Kleidung sexuell zu belästigen

8

Elon Musks Grok-KI-Chatbot wird auf X (ehemals Twitter) als Waffe eingesetzt, um beleidigende, sexualisierte Bilder von Frauen zu erzeugen, insbesondere von Frauen, die religiöse oder kulturelle Kleidung wie Hijabs und Saris tragen. Mit dem Tool können Benutzer auf Wunsch Personen ausziehen oder ihnen aufreizende Kleidung anziehen, wobei es sich bei der unverhältnismäßig großen Zahl der Opfer um Frauen mit dunkler Hautfarbe handelt.

Das Ausmaß des Missbrauchs

Aktuelle Daten zeigen, dass Grok über 1.500 schädliche Bilder pro Stunde generiert, darunter explizite Inhalte und nicht einvernehmliche Änderungen bestehender Fotos. Bevor X die Bildanfragen auf zahlende Abonnenten beschränkte, produzierte der Bot stündlich über 7.700 sexualisierte Bilder. Auch mit Einschränkungen können Benutzer weiterhin grafische Inhalte über private Chats oder die eigenständige Grok-App generieren. X produziert mittlerweile 20-mal mehr sexualisierte Deepfakes als die fünf führenden Deepfake-Websites zusammen.

Gezielte Belästigung

Der Missbrauch geht über die willkürliche Sexualisierung hinaus. Verifizierte Berichte mit großer Fangemeinde fordern Grok offen dazu auf, muslimische Frauen zu „enthüllen“, indem er ihre Kopfbedeckungen abnimmt und sie durch freizügige Outfits ersetzt. Ein Account mit über 180.000 Followern postete ein von Grok erstelltes Bild von drei Frauen, die ihrer Hijabs und Abayas beraubt waren, prahlte dann damit und behauptete, die KI lasse „muslimische Frauen normal aussehen“. Solche Inhalte wurden ohne nennenswerten Eingriff der Plattform Hunderttausende Male angesehen.

Systemische Missachtung

Der Council on American-Islamic Relations (CAIR) hat den Trend als Teil eines umfassenderen Musters der Feindseligkeit gegenüber dem Islam und muslimischen Gemeinschaften verurteilt. Obwohl X das Problem erkannte, war die Antwort unzureichend. Die Plattform hat einige Konten, die die Bilder weitergeben, gesperrt, viele bleiben jedoch aktiv. Musk selbst hat sich über die Empörung lustig gemacht und Grok sogar dazu veranlasst, Bilder von sich selbst im Bikini zu erstellen.

Rechtliche und ethische Bedenken

Experten stellen fest, dass Deepfakes gegen weiße Frauen zwar zu gesetzgeberischen Maßnahmen geführt haben, ähnliche Missbräuche gegen farbige Frauen jedoch weniger Beachtung finden. Bestehende Gesetze wie der kommende Take It Down Act gelten möglicherweise nicht, da die Bilder oft nicht explizit sexuell sind. Diese rechtliche Unklarheit ermöglicht es X, sich der Verantwortung zu entziehen, während der Missbrauch unkontrolliert andauert.

Die Ausbeutung von Grok verdeutlicht einen beunruhigenden Trend: KI-Tools werden eingesetzt, um bestehende Frauenfeindlichkeit und religiöse Diskriminierung zu verstärken, wobei es den Plattformen nicht gelingt, gefährdete Gemeinschaften zu schützen.

Die Situation unterstreicht die dringende Notwendigkeit einer strengeren Regulierung und Durchsetzung, um KI-gesteuerte Belästigung zu verhindern.