7 hours ago2 min read


KALTENG NETWORK, PALANGKA RAYA - Kementerian Komunikasi dan Informatika mengungkapkan bahwa perempuan sering menjadi korban penyalahgunaan teknologi kecerdasan buatan atau Artificial Intelligence (AI) dalam bentuk deepfake yang berisi konten pornografi. Nezar Patria, Wakil Menteri Komunikasi dan Informatika, menyoroti tiga dampak dan viktimisasi yang mungkin terjadi sebagai akibat dari penyalahgunaan AI, salah satunya adalah penargetan kelompok perempuan.
"Perempuan menjadi sasaran dalam konten pornografi yang sengaja dibuat melalui teknologi deepfake," ungkapnya, diucapkan di kampus Universitas Gadjah Mada, Yogyakarta, pada Kamis (16/11), seperti yang dikutip dari siaran persnya.
Cristina López, seorang analis senior di Graphika, sebuah perusahaan yang mempelajari aliran informasi di jaringan digital, menjelaskan, "Deepfake adalah rekaman yang dihasilkan oleh komputer yang telah dilatih melalui gambar-gambar yang tak terhitung jumlahnya."
Deepfake menggunakan AI untuk menciptakan video, audio, atau foto yang sepenuhnya baru dengan tujuan untuk menampilkan sesuatu yang sebenarnya tidak terjadi di kehidupan nyata.
Nezar melanjutkan dengan merinci bahwa data dari Home Security Heroes menunjukkan adanya 95.820 video deepfake yang tersebar secara global pada tahun 2023.
"Terjadi peningkatan sebesar 550 persen dibandingkan tahun 2019 secara global. Ini sangat mengkhawatirkan karena dapat disalahgunakan dan dimanipulasi untuk penipuan, pornografi, dan tujuan jahat lainnya, yang pada akhirnya mengakibatkan penyebaran disinformasi," tambah Nezar.
Sejalan dengan hal tersebut, Biro Investigasi Federal AS (FBI) telah memberikan peringatan terkait peningkatan kasus konten porno deepfake yang digunakan untuk melakukan pemerasan atau sextortion.
Dalam banyak kasus sextortion, konten yang dikirim kepada korban seringkali tidak sungguhan. Para pelaku hanya berpura-pura memiliki akses terhadap konten pribadi untuk menakut-nakuti korban agar membayar tebusan.
FBI mencatat bahwa para pelaku dapat dengan mudah mengambil banyak foto biasa yang tersedia secara publik di media sosial, seperti foto dan video. Foto-foto tersebut kemudian dimasukkan ke dalam alat pembuatan konten deepfake, mengubahnya menjadi konten seksual eksplisit yang dihasilkan oleh AI. Meskipun buatan, hasil olahan AI tersebut terlihat sangat nyata.
"Pada April 2023, FBI telah mencatat peningkatan jumlah korban sextortion yang melaporkan penggunaan foto atau video palsu yang dibuat dari konten yang diunggah di situs media sosial atau unggahan situs masing-masing."
"Foto-foto ini diberikan kepada pelaku kejahatan atas permintaan atau diambil selama obrolan video," peringatkan FBI. -red
Sumber Foto : Pexels
Comments