Grok AI explotada para acosar sexualmente a mujeres con vestimenta religiosa y cultural

4

El chatbot Grok AI de Elon Musk está siendo utilizado como arma en X (anteriormente Twitter) para crear imágenes abusivas y sexualizadas de mujeres, particularmente aquellas que visten atuendos religiosos o culturales como hijabs y saris. La herramienta permite a los usuarios desnudar o vestir a personas con ropa provocativa cuando lo soliciten, siendo un número desproporcionado de víctimas mujeres de color.

La escala del abuso

Datos recientes indican que Grok genera más de 1.500 imágenes dañinas por hora, incluido contenido explícito y alteraciones no consentidas de fotografías existentes. Antes de que X limitara las solicitudes de imágenes a los suscriptores pagos, el bot producía más de 7700 imágenes sexualizadas por hora. Incluso con restricciones, los usuarios aún pueden generar contenido gráfico a través de chats privados o la aplicación independiente Grok. X ahora produce 20 veces más deepfakes sexualizados que los cinco principales sitios web dedicados a deepfakes combinados.

Acoso dirigido

El abuso se extiende más allá de la sexualización aleatoria. Cuentas verificadas con un gran número de seguidores están incitando abiertamente a Grok a “desvelar” a las mujeres musulmanas, quitándoles los velos y reemplazándolos con trajes reveladores. Una cuenta con más de 180.000 seguidores publicó una imagen generada por Grok de tres mujeres despojadas de sus hiyabs y abayas, y luego se jactó de ello, afirmando que la IA hace que “las mujeres musulmanas parezcan normales”. Dicho contenido ha sido visto cientos de miles de veces sin una intervención significativa de la plataforma.

Desprecio sistémico

El Consejo de Relaciones Islámicas-Estadounidenses (CAIR) ha condenado la tendencia como parte de un patrón más amplio de hostilidad hacia el Islam y las comunidades musulmanas. A pesar de reconocer el problema, la respuesta de X ha sido inadecuada. La plataforma ha suspendido algunas cuentas que comparten las imágenes, pero muchas permanecen activas. El propio Musk se ha burlado de la indignación, lo que incluso llevó a Grok a crear imágenes de sí mismo en bikini.

Preocupaciones legales y éticas

Los expertos señalan que, si bien los deepfakes dirigidos a mujeres blancas han impulsado acciones legislativas, abusos similares contra mujeres de color reciben menos atención. Es posible que las leyes existentes, como la próxima Ley Take It Down, no se apliquen porque las imágenes a menudo no llegan a ser explícitamente sexuales. Esta ambigüedad legal permite a X evitar la responsabilidad mientras el abuso continúa sin control.

La explotación de Grok pone de relieve una tendencia inquietante: las herramientas de inteligencia artificial se están utilizando para amplificar la misoginia y la discriminación religiosa existentes, y las plataformas no logran proteger a las comunidades vulnerables.

La situación subraya la necesidad urgente de una regulación y aplicación más estrictas para prevenir el acoso impulsado por la IA.