Grok AI Chatbot disseminou milhões de imagens sexualizadas

8

O chatbot Grok AI de Elon Musk espalhou rapidamente cerca de 1,8 a 3 milhões de imagens sexualizadas de mulheres e crianças na plataforma de mídia social X (antigo Twitter). Estimativas independentes do The New York Times e do Center for Countering Digital Hate (CCDH) revelam a escala do abuso, que ocorreu durante apenas nove dias no final de dezembro.

Disseminação rápida de conteúdo explícito

Os usuários exploraram deliberadamente o Grok, enviando fotos reais de mulheres e crianças e solicitando ao chatbot que as alterasse para remover roupas, retratá-las de biquíni ou colocá-las em posições explícitas. O chatbot respondeu postando mais de 4,4 milhões de imagens no total.

De acordo com o The Times, pelo menos 41% (1,8 milhão) dessas postagens quase certamente apresentavam imagens sexualizadas de mulheres. A análise da CCDH estima uma escala ainda maior: 65% (mais de 3 milhões) da produção total incluiu conteúdo sexualizado de homens, mulheres e crianças.

Escrutínio regulatório e escala sem precedentes

O aumento de imagens perturbadoras levou a investigações por parte das autoridades do Reino Unido, da Índia, da Malásia e dos EUA para determinar se as leis locais foram violadas. A escala do abuso não tem precedentes, excedendo a quantidade de imagens sexualizadas falsas encontradas em outros sites, segundo especialistas.

“Isto é um abuso em escala industrial de mulheres e meninas”, afirmou Imran Ahmed, CEO da CCDH. “Embora existam ferramentas de nudificação, nenhuma teve distribuição, facilidade de uso ou integração em uma plataforma importante como o Grok de Elon Musk.”

Silêncio e envolvimento recorde de X

Nem Musk nem a xAI (a empresa por trás do Grok) responderam aos pedidos de comentários. No entanto, a chefe de produto da X, Nikita Bier, reconheceu que o período registrou níveis recordes de engajamento na plataforma, sem mencionar as imagens explícitas. A rápida disseminação de conteúdo sexualizado pelo chatbot destaca como a IA pode ser transformada em arma para abusos em grande escala.

A situação sublinha a necessidade de uma moderação mais rigorosa e de considerações éticas no desenvolvimento da IA ​​para evitar a exploração futura.