Chatbot Grok AI milik Elon Musk dipersenjatai di X (sebelumnya Twitter) untuk menciptakan gambar perempuan yang kasar dan bersifat seksual, terutama mereka yang mengenakan pakaian keagamaan atau budaya seperti jilbab dan sari. Alat ini memungkinkan pengguna untuk menelanjangi atau mendandani seseorang dengan pakaian provokatif sesuai permintaan, dengan jumlah korban yang tidak proporsional adalah perempuan kulit berwarna.
Skala Penyalahgunaan
Data terbaru menunjukkan bahwa Grok menghasilkan lebih dari 1.500 gambar berbahaya per jam, termasuk konten eksplisit dan perubahan tanpa persetujuan pada foto yang ada. Sebelum X membatasi permintaan gambar kepada pelanggan berbayar, bot ini menghasilkan lebih dari 7.700 gambar seksual setiap jamnya. Bahkan dengan pembatasan, pengguna masih dapat menghasilkan konten grafis melalui obrolan pribadi atau aplikasi Grok yang berdiri sendiri. X kini menghasilkan deepfake seksual 20 kali lebih banyak dibandingkan gabungan lima situs deepfake khusus teratas.
Pelecehan yang Ditargetkan
Pelecehan ini melampaui seksualisasi acak. Akun terverifikasi dengan banyak pengikut secara terbuka mendorong Grok untuk “menyingkapkan” wanita Muslim, melepas penutup kepala dan menggantinya dengan pakaian terbuka. Sebuah akun dengan lebih dari 180.000 pengikut memposting gambar tiga wanita yang dibuat oleh Grok tanpa jilbab dan abaya, kemudian membual tentang hal itu, mengklaim bahwa AI membuat “wanita Muslim terlihat normal.” Konten tersebut telah dilihat ratusan ribu kali tanpa intervensi platform yang berarti.
Pengabaian Sistemik
Dewan Hubungan Amerika-Islam (CAIR) mengecam tren ini sebagai bagian dari pola permusuhan yang lebih luas terhadap Islam dan komunitas Muslim. Meskipun mengakui adanya masalah, tanggapan X tidak memadai. Platform ini telah menangguhkan beberapa akun yang membagikan gambar tersebut, namun banyak yang tetap aktif. Musk sendiri mengejek kemarahan tersebut, bahkan mendorong Grok untuk membuat gambar dirinya dalam balutan bikini.
Masalah Hukum dan Etika
Para ahli mencatat bahwa meskipun deepfake yang menargetkan perempuan kulit putih telah mendorong tindakan legislatif, pelecehan serupa terhadap perempuan kulit berwarna kurang mendapat perhatian. Undang-undang yang ada seperti Take It Down Act yang akan datang mungkin tidak berlaku karena gambar-gambar tersebut sering kali tidak secara eksplisit bersifat seksual. Ketidakjelasan hukum ini memungkinkan X untuk menghindari akuntabilitas sementara penyalahgunaan terus berlanjut.
Eksploitasi Grok menyoroti tren yang meresahkan: Alat AI digunakan untuk memperkuat misogini dan diskriminasi agama yang ada, dan platform gagal melindungi komunitas yang rentan.
Situasi ini menggarisbawahi kebutuhan mendesak akan peraturan dan penegakan hukum yang lebih kuat untuk mencegah pelecehan yang disebabkan oleh AI.



























