Tubuh yang Dirampas Mesin: Kekerasan Seksual Baru di Era Kecerdasan Buatan

Oleh: Andi Agung Mallongi, S.H
Analisis Hukum Sekjend Kementerian Agama RI

Bayangkan suatu hari Anda membuka media sosial, lalu menemukan wajah Anda atau wajah anak Anda terpampang dalam foto pornografi yang tidak pernah Anda ambil. Foto itu palsu, hasil rekayasa kecerdasan buatan. Tapi begitu tersebar, siapa peduli itu palsu? Kerusakan sudah terjadi, nama Anda hancur, trauma mengakar, ini bukan sekadar cerita fiksi, ini adalah realitas yang sedang terjadi pada kasus Grok AI di platform X.

Ledakan teknologi kecerdasan buatan (Artificial Intelligence/AI) seharusnya menjadi penanda kemajuan peradaban digital. Namun, kasus dugaan penyalahgunaan Grok AI di platform X justru memperlihatkan sisi gelap inovasi teknologi. Ketika mesin yang diciptakan untuk membantu manusia berubah menjadi alat perendahan martabat, pelanggaran privasi, dan kekerasan simbolik terhadap tubuh terutama perempuan dan anak.

Peringatan keras dari Kementerian Komunikasi dan Digital (Komdigi) serta kajian pidana oleh Bareskrim Polri menandakan bahwa negara mulai sadar dengan keberadaan AI yang bukan lagi sebagai isu futuristik, melainkan persoalan hukum dan etika hari ini.

Teknologi Tanpa Etika, Tubuh Tanpa Perlindungan

Kecerdasan buatan sering dianalogikan sebagai double edged sword (pisau bermata dua), artinya teknologi yang sama bisa digunakan untuk kebaikan atau justru kejahatan. Dalam konteks Grok AI, kemampuan generative yakni kemampuan AI untuk menciptakan gambar atau konten baru telah membuka ruang bagi produksi konten pornografi non-konsensual, artinya konten seksual tanpa persetujuan subjek.

Dalam teori Social Construction of Technology (SCOT), teknologi tidak pernah netral, mengingat teknologi dibentuk oleh nilai, kepentingan, dan struktur sosial yang melingkupinya. Artinya, ketika platform digital membiarkan sistem AI bekerja tanpa pagar etika dan moderasi ketat, maka penyalahgunaan bukan sekadar kesalahan pengguna, tetapi kegagalan desain dan tata kelola.

Analogi hukumnya sederhana yakni “Jika seseorang memelihara anjing buas tanpa pengamanan, lalu anjing itu menyerang orang lain, apakah pemiliknya bisa lepas tangan?” Dalam hukum perdata dan pidana, hal tersebut dikenal dengan konsep liability (tanggung jawab hukum). Platform digital dan pengembang AI tidak bisa berlindung di balik dalih “hanya menyediakan teknologi”, ketika teknologi tersebut secara sistemik memungkinkan kejahatan.

Yang terjadi dengan Grok AI adalah contoh paling sadis dari perkembangan teknologi canggih yang bisa membuat gambar apa saja termasuk foto bugil palsu dari wajah siapa saja dibiarkan beredar tanpa kontrol ketat. Hasilnya? Perempuan dan anak-anak menjadi korban, tubuh mereka dimanipulasi tanpa izin, martabat mereka dilucuti oleh mesin tanpa perasaan.

Pornografi Berbasis AI dan Kegagalan Hukum Mengimbangi Teknologi

Kasus manipulasi foto pribadi menjadi konten seksual melalui kecerdasan buatan memperlihatkan satu kenyataan pahit, yang menunjukan bahwa hukum kita sedang tertinggal jauh di belakang laju teknologi. Fenomena ini dikenal sebagai regulatory lag ketertinggalan regulasi yakni kondisi ketika perangkat hukum bergerak lebih lambat dibanding inovasi teknologi yang berkembang eksponensial.

Walapun Indonesia saat ini telah memiliki Undang-Undang Informasi dan Transaksi Elektronik serta Undang-Undang Pornografi, tetapi kedua instrumen tersebut lahir dalam konteks teknologi lama, ketika kecerdasan buatan generatif belum mampu menciptakan gambar super realistis yang meniru wajah dan tubuh manusia tanpa izin pemiliknya.

Masalahnya bukan sekadar ketiadaan aturan, melainkan ketidaksiapan hukum menghadapi bentuk kejahatan baru yang lahir dari ruang digital. Dalam perspektif Cybercrime Space Transition Theory yang dikemukakan Jaishankar (2008), kejahatan di dunia siber memiliki karakter yang berbeda dari kejahatan konvensional. Kejahatan ini tidak mengenal batas wilayah negara, sulit dilacak pelakunya, dan berlangsung sangat cepat akibat distorsi ruang dan waktu. Di sinilah ironi hukum kita tampak jelas.

Hukum masih bekerja dengan logika teritorial dan prosedural yang lamban, sementara teknologi bergerak dengan kecepatan algoritma. Dalam konteks pornografi berbasis AI, regulasi yang tidak adaptif justru akan membuka ruang impunitas karena pelaku akan merasa aman karena hukum belum mampu menjangkau mereka secara efektif.

Langkah Bareskrim Polri yang mengkaji kemungkinan pemidanaan terhadap penyalahgunaan AI patut diapresiasi sebagai sinyal bahwa negara mulai sadar akan bahaya laten teknologi generatif. Namun, perlu disadari bahwa pemidanaan semata tidak akan pernah cukup, mengingat hukum yang hanya hadir setelah kejahatan terjadi adalah hukum yang terlambat bagi korban.

Dalam teori Preventive Justice atau keadilan preventif, tujuan utama hukum bukan hanya menghukum pelaku, tetapi mencegah kejahatan sejak awal. Artinya, hukum harus hadir sebelum gambar palsu itu dibuat, sebelum konten asusila itu tersebar, dan sebelum martabat manusia dilucuti oleh mesin tanpa nurani.

Tanpa pendekatan preventif, negara akan terus berada dalam posisi reaktif sibuk memadamkan api, tetapi lupa memperbaiki sistem kelistrikan yang rusak. Pencegahan menuntut lebih dari sekadar pasal pidana, ia membutuhkan kewajiban tegas bagi platform digital untuk membangun sistem moderasi yang kuat, pembatasan fitur AI berisiko tinggi, serta tanggung jawab hukum yang jelas bagi pengembang teknologi. Jika tidak, pornografi berbasis AI akan terus beranak-pinak, dan hukum hanya akan menjadi penonton yang datang terlambat ke arena ketidakadilan digital.

- Advertisment -spot_img
Berita Terakait

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

- Advertisment -spot_img

Topik Populer

Komentar Terbaru