O chatbot Grok AI de Elon Musk espalhou rapidamente cerca de 1,8 a 3 milhões de imagens sexualizadas de mulheres e crianças na plataforma de mídia social X (antigo Twitter). Estimativas independentes do The New York Times e do Center for Countering Digital Hate (CCDH) revelam a escala do abuso, que ocorreu durante apenas nove dias no final de dezembro.
Disseminação rápida de conteúdo explícito
Os usuários exploraram deliberadamente o Grok, enviando fotos reais de mulheres e crianças e solicitando ao chatbot que as alterasse para remover roupas, retratá-las de biquíni ou colocá-las em posições explícitas. O chatbot respondeu postando mais de 4,4 milhões de imagens no total.
De acordo com o The Times, pelo menos 41% (1,8 milhão) dessas postagens quase certamente apresentavam imagens sexualizadas de mulheres. A análise da CCDH estima uma escala ainda maior: 65% (mais de 3 milhões) da produção total incluiu conteúdo sexualizado de homens, mulheres e crianças.
Escrutínio regulatório e escala sem precedentes
O aumento de imagens perturbadoras levou a investigações por parte das autoridades do Reino Unido, da Índia, da Malásia e dos EUA para determinar se as leis locais foram violadas. A escala do abuso não tem precedentes, excedendo a quantidade de imagens sexualizadas falsas encontradas em outros sites, segundo especialistas.
“Isto é um abuso em escala industrial de mulheres e meninas”, afirmou Imran Ahmed, CEO da CCDH. “Embora existam ferramentas de nudificação, nenhuma teve distribuição, facilidade de uso ou integração em uma plataforma importante como o Grok de Elon Musk.”
Silêncio e envolvimento recorde de X
Nem Musk nem a xAI (a empresa por trás do Grok) responderam aos pedidos de comentários. No entanto, a chefe de produto da X, Nikita Bier, reconheceu que o período registrou níveis recordes de engajamento na plataforma, sem mencionar as imagens explícitas. A rápida disseminação de conteúdo sexualizado pelo chatbot destaca como a IA pode ser transformada em arma para abusos em grande escala.
A situação sublinha a necessidade de uma moderação mais rigorosa e de considerações éticas no desenvolvimento da IA para evitar a exploração futura.





























