Chatbot Grok, opracowany przez Elona Muska, jest używany w serwisie X (dawniej Twitter) do tworzenia obraźliwych i seksualizowanych wizerunków kobiet, zwłaszcza tych noszących ubrania religijne lub kulturowe, takie jak hidżaby i sari. Narzędzie umożliwia użytkownikom na żądanie rozbieranie lub ubieranie ludzi w wyzywające ubrania, przy czym nieproporcjonalną liczbę ofiar stanowią kobiety kolorowe.
Skala nadużyć
Najnowsze dane pokazują, że Grok generuje ponad 1500 złośliwych obrazów na godzinę, w tym treści dla dorosłych i nieautoryzowane modyfikacje istniejących zdjęć. Przed X ograniczaniem żądań obrazów tylko do płatnych subskrybentów, bot generował ponad 7700 obrazów o charakterze seksualnym na godzinę. Nawet z ograniczeniami użytkownicy nadal mogą generować treści graficzne w osobistych czatach lub w samodzielnej aplikacji Grok. X produkuje obecnie 20 razy więcej deepfake’ów o charakterze seksualnym niż pięć największych witryn poświęconych deepfake’om razem wziętych.
Ukierunkowane nękanie
Przemoc wykracza poza przypadkową seksualizację. Zweryfikowane konta z dużą publicznością otwarcie proszą Groka o „odsłonięcie” muzułmanek poprzez zdjęcie nakryć głowy i zastąpienie ich odkrywczymi strojami. Jedno z kont, które ma ponad 180 000 obserwujących, zamieściło wygenerowane przez Groka zdjęcie trzech kobiet pozbawionych hidżabów i abai, a następnie przechwalało się tym, mówiąc, że sztuczna inteligencja sprawia, że „muzułmanki wyglądają normalnie”. Takie treści były oglądane setki tysięcy razy bez znaczącej interwencji platformy.
Systemowe zaniedbanie
Rada ds. Amerykańskich Stosunków Islamskich (CAIR) potępiła tę tendencję jako część szerszego wzorca wrogości wobec islamu i społeczności muzułmańskich. Pomimo uznania problemu reakcja X była niewystarczająca. Platforma zawiesiła niektóre konta udostępniające zdjęcia, ale wiele z nich pozostaje aktywnych. Sam Musk wyśmiał oburzenie, prosząc nawet Groka o stworzenie jego zdjęć w bikini.
Kwestie prawne i etyczne
Eksperci twierdzą, że choć deepfake wymierzone w białe kobiety wywołały działania legislacyjne, podobnym nadużyciom wobec kolorowych kobiet poświęcono mniej uwagi. Obowiązujące przepisy, takie jak planowana ustawa Take It Down Act, mogą nie mieć zastosowania, ponieważ obrazy często nie osiągają poziomu jednoznacznie seksualnego. Ta niepewność prawna pozwala X uniknąć odpowiedzialności, dopóki nadużycie będzie kontynuowane bez kontroli.
Wykorzystywanie Groka uwypukla niepokojącą tendencję: narzędzia sztucznej inteligencji są wykorzystywane do wzmacniania istniejącej mizoginii i dyskryminacji religijnej, a platformy nie chronią bezbronnych społeczności.
Sytuacja ta uwypukla pilną potrzebę wprowadzenia silniejszych regulacji i egzekwowania przepisów, aby zapobiegać nękaniu opartemu na sztucznej inteligencji.






























