Artikel ini diterbitkan bersama The 19th, sebuah bilik berita bukan untung yang meliput isu gender, politik, dan dasar. Daftar untuk surat berita The 19th di sini.
Lebih daripada dua dozen pelajar di Westfield High School di New Jersey berasa ngeri tahun lepas apabila mengetahui bahawa imej bogel mereka tersebar di kalangan rakan sebaya. Menurut pihak sekolah, beberapa pelajar telah menggunakan Kecerdasan Buatan (AI) untuk mencipta imej lucah orang lain daripada foto asal. Dan mereka bukan satu-satunya remaja perempuan yang menjadi mangsa foto bogel palsu: Pelajar di Washington State dan Kanada juga melaporkan menghadapi situasi serupa kerana keupayaan untuk mengubah foto secara realistik menjadi lebih mudah diakses melalui laman web dan aplikasi.
Kebimbangan yang semakin meningkat terhadap deepfakes—imej atau video yang dijana AI—secara umum semakin ketara lagi pada Januari, apabila satu yang melibatkan superstar Taylor Swift tersebar dengan pantas melalui media sosial.
Carrie Goldberg, seorang peguam yang telah mewakili mangsa pornografi tanpa persetujuan—biasanya dirujuk sebagai revenge porn—selama lebih sedekad, berkata dia baru-baru ini mula mendengar daripada mangsa imej yang dijana komputer.
"Firma saya telah melihat mangsa deepfakes selama kira-kira lima tahun sekarang, dan kebanyakannya adalah selebriti," kata Goldberg. "Kini, ia menjadi kanak-kanak melakukannya kepada kanak-kanak untuk menjadi kejam. Ia mungkin sangat kurang dilaporkan kerana mangsa mungkin tidak tahu bahawa terdapat jalan penyelesaian undang-undang, dan tidak sepenuhnya jelas dalam semua kes sama ada ada atau tidak."
Badan pentadbir cuba mengejar. Dalam tahun lalu atau lebih, 10 negeri telah meluluskan undang-undang untuk mengkriminalkan penciptaan atau penyebaran deepfakes secara khusus. Negeri-negeri ini—termasuk California, Florida, Georgia, Hawaii, Illinois, Minnesota, New York, South Dakota, Texas dan Virginia—menggariskan penalti daripada denda hingga hukuman penjara. Indiana berkemungkinan akan menyertai senarai yang semakin berkembang tidak lama lagi dengan memperluaskan undang-undang semasa mengenai pornografi tanpa persetujuan.
Rep. Indiana Sharon Negele, seorang Republikan, mengarang cadangan perluasan tersebut. Undang-undang sedia ada mentakrifkan "revenge porn" sebagai mendedahkan imej intim, seperti mana-mana yang menggambarkan hubungan seksual, kemaluan terdedah, punggung atau payudara wanita, tanpa persetujuan individu yang digambarkan dalam imej. Rang undang-undang yang dicadangkan Negele telah melepasi kedua-dua dewan dan kini menunggu tandatangan gabenor.
Negele berkata dia bermotivasi untuk mengemas kini kod jenayah Indiana apabila mendengar kisah seorang guru sekolah menengah yang mendapati beberapa pelajarnya telah menyebarkan imej deepfake dirinya. Ia "sangat merosakkan" kehidupan peribadi guru itu, dan Negele terkejut melihat bahawa pelaku tidak boleh didakwa di bawah undang-undang semasa.
"Ia bermula dengan pendidikan saya untuk memahami teknologi yang kini tersedia dan membaca tentang insiden demi insiden wajah orang yang dilampirkan pada badan yang dibuat-buat yang kelihatan sangat nyata dan realistik," kata Negele. "Ia sangat menyedihkan. Sebagai seorang ibu dan nenek dan memikirkan apa yang boleh berlaku kepada keluarga saya dan diri saya sendiri—ia mengejutkan. Kita perlu mendahului perkara seperti ini."
Goldberg, yang firma guamannya pakar dalam jenayah seks, berkata dia menjangkakan lebih banyak negeri akan terus memperluaskan undang-undang sedia ada mereka untuk memasukkan bahasa AI.
"Sepuluh tahun lalu, hanya tiga negeri mempunyai undang-undang revenge porn atau penyalahgunaan seksual berasaskan imej," kata Goldberg. "Kini, 48 negeri telah mengharamkan revenge porn, dan ia benar-benar mencipta pengurangan yang luar biasa dalam revenge porn—tidak menghairankan—seperti yang kami peguambela katakan. Keseluruhan peningkatan deepfakes telah mengisi jurang sebagai cara baharu untuk menghina seseorang secara seksual."
Pada 2023, lebih daripada 143,000 video baharu yang dijana AI telah disiarkan dalam talian, menurut The Associated Press. Itu adalah lonjakan besar daripada 2019, apabila laman web atau aplikasi "nudify" kurang biasa, dan masih terdapat hampir 15,000 video palsu ini dalam talian, menurut laporan dari Deeptrace Labs, sebuah syarikat perisikan ancaman visual. Walaupun pada masa itu, video tersebut—96 peratus daripadanya mempunyai pornografi wanita tanpa persetujuan—telah mengumpul lebih 100 juta tontonan.
Goldberg berkata penggubal dasar dan orang ramai sama-sama nampaknya lebih bermotivasi untuk mengharamkan imej bogel yang dijana AI secara khusus kerana hampir sesiapa sahaja boleh menjadi mangsa. Terdapat lebih banyak empati.
"Dengan revenge porn, dalam gelombang pertama perbincangan, semua orang menyalahkan mangsa dan membuat mereka seolah-olah mereka sejenis pervert kerana mengambil imej atau bodoh kerana berkongsi dengan orang lain," kata Goldberg. "Dengan deepfakes, anda tidak boleh menyalahkan mangsa kerana satu-satunya perkara yang mereka lakukan ialah mempunyai badan."
Amanda Manyame, seorang penasihat hak digital yang berpangkalan di Afrika Selatan untuk Equality Now, sebuah organisasi hak asasi manusia antarabangsa yang memberi tumpuan untuk membantu wanita dan kanak-kanak perempuan, berkata bahawa hampir tiada perlindungan untuk mangsa deepfakes di Amerika Syarikat. Manyame mengkaji dasar dan undang-undang di seluruh dunia, menganalisis apa yang berfungsi dan memberikan nasihat undang-undang mengenai hak digital, khususnya mengenai eksploitasi dan penyalahgunaan seksual yang difasilitasi teknologi.
"Jurang terbesar ialah A.S. tidak mempunyai undang-undang persekutuan," kata Manyame. "Cabaran ialah isu ini ditadbir mengikut negeri, dan secara semula jadi, tiada keseragaman atau penyelarasan apabila ia berkaitan dengan perlindungan."
Walau bagaimanapun, pada masa ini terdapat desakan di Capitol Hill: Sekumpulan senator dwipartisan memperkenalkan pada Januari Akta Disrupt Explicit Forged Images and Non-Consensual Edits 2024—juga dikenali sebagai Akta DEFIANCE. Undang-undang yang dicadangkan bertujuan untuk menghentikan percambahan kandungan seksual eksplisit tanpa persetujuan.
"Tiada siapa—sama ada selebriti mahupun rakyat Amerika biasa—sepatutnya terpaksa mendapati diri mereka dipaparkan dalam pornografi AI," kata Senator Republikan Josh Hawley, penaja bersama rang undang-undang itu, dalam satu kenyataan. "Orang yang tidak bersalah mempunyai hak untuk mempertahankan reputasi mereka dan mempertanggungjawabkan pelaku di mahkamah." Rep. Alexandria Ocasio-Cortez telah memperkenalkan rang undang-undang rakan kongsi di Dewan.
Menurut tinjauan baharu dari Data for Progress, 85 peratus pengundi berkemungkinan merentasi spektrum politik berkata mereka menyokong Akta DEFIANCE yang dicadangkan—dengan 72 peratus wanita dalam sokongan kuat berbanding 62 peratus lelaki.
Tetapi lelaki muda lebih cenderung menentang Akta DEFIANCE, dengan kira-kira satu daripada lima lelaki di bawah 45 (22 peratus) berkata mereka sangat atau agak menentang undang-undang yang membenarkan subjek deepfakes eksplisit tanpa persetujuan untuk menyaman pencipta.
Danielle Deiseroth, pengarah eksekutif Data for Progress, berkata isu ini menunjukkan salah satu "kontras yang lebih tajam" antara lelaki dan wanita muda yang pernah dilihatnya sejak sekian lama.
"Kami boleh katakan dengan yakin bahawa wanita dan lelaki di bawah 45 mempunyai pendapat yang berbeza mengenai dasar ini," kata Deiseroth. "Ini adalah isu yang memberi kesan tidak seimbang kepada wanita, terutamanya wanita muda, yang lebih berkemungkinan menjadi mangsa revenge porn. Dan saya fikir itulah punca sebenar di sini."
Goldberg berkata bahawa mewujudkan dasar untuk mengkriminalkan pelakon jahat adalah permulaan yang baik tetapi akhirnya tidak mencukupi. Langkah seterusnya yang baik, katanya, adalah untuk mengambil tindakan undang-undang menyasarkan pengedar dalam talian, seperti App Store dan Google Play, yang menyediakan produk yang digunakan terutamanya untuk aktiviti jenayah. Platform media sosial dan aplikasi mesej segera, di mana imej eksplisit ini diedarkan, juga harus dipertanggungjawabkan, tambah Goldberg.
Pengasas #MyImageMyChoice, sebuah organisasi akar umbi yang bekerja untuk membantu mangsa penyalahgunaan imej intim, bersetuju bahawa lebih banyak perlu dilakukan oleh syarikat swasta yang terlibat dalam penciptaan dan pengedaran imej ini.
Pengasas—Sophie Compton, Reuben Hamlyn dan Elizabeth Woodward—menegaskan bahawa enjin carian seperti Google memacu sebahagian besar daripada jumlah trafik web ke laman lucah deepfake, manakala syarikat kad kredit memproses pembayaran mereka. Penyedia perkhidmatan internet membenarkan orang mengaksesnya, manakala perkhidmatan utama seperti Amazon, Cloudflare, dan Github Microsoft menjadi tuan rumah mereka. Dan laman media sosial seperti X membenarkan kandungan beredar secara besar-besaran. Google mengubah dasarnya pada 2015 dan mula membenarkan mangsa mengemukakan permintaan untuk mengalih keluar kandungan individu daripada hasil carian dan sejak itu telah memperluaskan dasar kepada penyalahgunaan deepfake. Walau bagaimanapun, syarikat itu tidak menyahsenaraikan laman keganasan seksual berasaskan imej dan penyalahgunaan deepfake secara sistematik.
"Syarikat teknologi mempunyai kuasa untuk menyekat, menyahindeks atau menolak perkhidmatan kepada laman ini—laman yang keseluruhan kewujudannya dibina atas melanggar persetujuan dan mengaut keuntungan daripada trauma," kata Compton, Hamlyn dan Woodward dalam satu kenyataan kepada The 19th. "Tetapi mereka telah memilih untuk tidak berbuat demikian."
Goldberg menunjukkan kepada kepantasan di mana deepfakes Taylor Swift tersebar. Satu imej yang dikongsi di X, dahulunya dikenali sebagai Twitter, telah dilihat 47 juta kali sebelum akaun yang menyiarkannya digantung. Imej terus tersebar walaupun usaha daripada syarikat media sosial untuk mengalihkannya.
"Gambar ganas dan misoginis Taylor Swift, berdarah dan bogel di permainan bola sepak Kansas City Chiefs, adalah lambang masalah itu," kata Goldberg. "Sejauh mana pengedaran itu, termasuk di laman yang benar-benar arus perdana, menghantar mesej kepada semua orang bahawa tidak mengapa untuk mencipta kandungan ini. Bagi saya, itu adalah saat yang benar-benar penting dan agak menakutkan."
Memandangkan sifat berprofil tinggi mangsa, insiden itu mencetuskan kemarahan yang ketara dan meluas daripada peminat Swift dan membawa perhatian orang ramai kepada isu tersebut. Goldberg berkata dia memeriksa untuk melihat sama ada mana-mana pengedar dalam talian telah mengalih keluar produk daripada kedai dalam talian mereka yang memudahkan dan memurahan untuk mencipta deepfakes seksual eksplisit—dan dia lega melihat mereka telah berbuat demikian.
Ketika penggubal dasar dan mahkamah negara terus cuba bertindak balas terhadap teknologi yang berkembang pesat dan semakin mudah diakses, Goldberg berkata adalah penting bahawa penggubal undang-undang terus menangguhkan kepada pakar dan mereka yang bekerja secara langsung dengan mangsa, seperti peguam, pekerja sosial dan peguambela. Penggubal undang-undang yang mengawal selia idea abstrak atau teknologi yang berkembang pesat boleh menjadi "resipi untuk bencana" sebaliknya, tambahnya.
Manyame juga menekankan kepentingan bercakap secara langsung dengan mangsa yang terselamat apabila membuat keputusan dasar, tetapi menambah bahawa penggubal undang-undang juga perlu berfikir secara lebih holistik tentang masalah dan tidak terlalu terperangkap dengan teknologi khusus—dengan risiko sentiasa ketinggalan. Sebagai contoh, Manyame berkata orang ramai baru sekarang mula memahami risiko yang ditimbulkan oleh AI dan deepfakes—sesuatu yang dia bantu tulis laporan pada 2021. Melihat ke hadapan, Manyame sudah memikirkan tentang Metaverse—ruang realiti maya—di mana pengguna mula berhadapan dengan kejadian rogol, gangguan seksual dan penyalahgunaan.
"Banyak undang-undang mengenai penyalahgunaan seksual berasaskan imej agak ketinggalan zaman kerana ia bercakap tentang revenge porn secara khusus," kata Manyame. "Revenge porn secara sejarah lebih merupakan isu keganasan rumah tangga, kerana ia adalah pasangan intim yang berkongsi imej eksploitasi seksual pasangan bekas atau sedia ada mereka. Itu tidak selalu berlaku dengan deepfakes, jadi undang-undang ini mungkin tidak memberikan perlindungan yang mencukupi."
Di samping itu, Manyame berhujah bahawa banyak dasar ini gagal meluaskan definisi "imej intim" untuk mempertimbangkan latar belakang budaya atau agama yang pelbagai. Untuk beberapa wanita Islam, sebagai contoh, ia mungkin sama melanggar dan memalukan untuk mencipta dan menyebarkan imej kepala mereka yang tidak bertudung tanpa hijab.
Apabila ia berkaitan dengan penyelesaian, Manyame menunjuk kepada tindakan yang boleh diambil oleh pencipta aplikasi, pengawal selia platform dan penggubal undang-undang.
Pada fasa reka bentuk, lebih banyak langkah keselamatan boleh dibenamkan untuk mengehadkan bahaya. Sebagai contoh, Manyame berkata terdapat beberapa aplikasi yang boleh mengambil foto wanita dan secara automatik mengalih keluar pakaian mereka manakala fungsi yang sama tidak berfungsi pada foto lelaki. Terdapat cara di bahagian belakang aplikasi ini untuk menyukarkan menanggalkan pakaian daripada sesiapa sahaja, tanpa mengira jantina mereka.
Walau bagaimanapun, sebaik sahaja deepfakes jahat sudah dicipta dan disiarkan, Manyame berkata platform media sosial dan mesej harus mempunyai mekanisme yang lebih baik untuk mengalih keluar kandungan selepas mangsa melaporkannya. Banyak kali, mangsa individu diabaikan. Manyame berkata dia perasan syarikat media sosial besar ini lebih berkemungkinan mengalih keluar deepfakes ini di negara, seperti Australia, yang mempunyai pengawal selia pihak ketiga untuk menyokong bagi pihak mangsa.
"Perlu ada mekanisme pemantauan dan penguatkuasaan yang dimasukkan dalam mana-mana penyelesaian," kata Manyame. "Salah satu perkara yang kami dengar daripada ramai mangsa yang terselamat ialah mereka hanya mahu imej mereka diturunkan. Ia bukan pun tentang melalui proses undang-undang. Mereka hanya mahu kandungan itu hilang."
Manyame berkata ia bukan permintaan yang terlalu besar untuk banyak syarikat teknologi dan pengawal selia kerajaan kerana ramai yang sudah bertindak balas dengan cepat untuk mengalih keluar foto yang tidak sesuai melibatkan kanak-kanak. Ia hanya masalah melanjutkan jenis perlindungan tersebut kepada wanita, tambahnya.
"Kebimbangan saya ialah terdapat tergesa-gesa untuk melaksanakan undang-undang dan dasar A.I. tanpa mempertimbangkan apakah beberapa punca utama bahaya ini. Ia adalah masalah berlapis, dan terdapat banyak lapisan lain yang perlu ditangani."
Turut diterbitkan di sini
Foto oleh Steve Johnson di Unsplash


