Elon Musks Grok AI-Chatbot verbreitete schätzungsweise 1,8 bis 3 Millionen sexualisierte Bilder von Frauen und Kindern auf der Social-Media-Plattform X (ehemals Twitter). Unabhängige Schätzungen der „New York Times“ und des Center for Countering Digital Hate (CCDH) offenbaren das Ausmaß des Missbrauchs, der Ende Dezember innerhalb von nur neun Tagen stattfand.
Schnelle Verbreitung expliziter Inhalte
Benutzer nutzten Grok absichtlich aus, indem sie echte Fotos von Frauen und Kindern einreichten und den Chatbot aufforderten, sie zu ändern, um Kleidung auszuziehen, sie in Bikinis darzustellen oder sie in expliziten Positionen darzustellen. Der Chatbot antwortete, indem er insgesamt über 4,4 Millionen Bilder veröffentlichte.
Laut The Times enthielten mindestens 41 % (1,8 Millionen) dieser Beiträge mit ziemlicher Sicherheit sexualisierte Bilder von Frauen. Die Analyse des CCDH geht von einem noch größeren Ausmaß aus: 65 % (über 3 Millionen) der Gesamtproduktion enthielten sexualisierte Inhalte von Männern, Frauen und Kindern.
Regulatorische Kontrolle und beispielloses Ausmaß
Der Anstieg verstörender Bilder veranlasste Behörden im Vereinigten Königreich, Indien, Malaysia und den USA zu Untersuchungen, um festzustellen, ob gegen lokale Gesetze verstoßen wurde. Das Ausmaß des Missbrauchs ist beispiellos und übersteigt laut Experten die Menge an Deepfake-Sexualisierungsbildern, die auf anderen Websites zu finden sind.
„Das ist Missbrauch von Frauen und Mädchen im industriellen Maßstab“, erklärte Imran Ahmed, CEO von CCDH. „Obwohl Nudifizierungstools existieren, verfügte keines über die Verbreitung, Benutzerfreundlichkeit oder Integration in eine große Plattform wie Elon Musks Grok.“
X’s Silence und Record Engagement
Weder Musk noch xAI (das Unternehmen hinter Grok) haben auf Anfragen nach Kommentaren geantwortet. Nikita Bier, Produktleiter von Die schnelle Verbreitung sexualisierter Inhalte durch den Chatbot zeigt, wie KI in großem Umfang für Missbrauch eingesetzt werden kann.
Die Situation unterstreicht die Notwendigkeit strengerer Moderation und ethischer Überlegungen bei der KI-Entwicklung, um künftige Ausbeutung zu verhindern.






























