Find Us On Social Media :

Video Porno Palsu Bisa Dibuat dari Fotomu di Medsos, Simak Teror Deepfakes yang Bikin Resah Netizen

By Ahmad Rifai, Jumat, 9 Februari 2018 | 20:13 WIB

Teror Deepfakes | Worcester Wired

(Baca juga: Nokia Luncurkan Update Keamanan Untuk Dua Ponsel Andalannya)

Video porno palsu dimanipulasi menggunakan potongan gambar dan video wajah seseorang untuk kemudian disesuaikan dengan sebuah video panas yang diinginkan.

Mayoritas wajah yang dipakai adalah bintang-bintang populer.

Video-video palsu ini kemudian mulai dibagikan ke forum Reddit bernama Deepfakes yang sudah dibuat sejak bulan Desember 2017.

Keberadaan entitas ini pertama kali dilaporkan oleh Motherboard.

(Baca juga: Smartphone Essential Tambahkan AutoHDR dan Algoritma HDR di Kameranya, Makin Canggih!)

Terdapat lebih dari 90 ribu pengguna yang berlangganan sebelum Reddit mengahapus komunitas tersebut. 

Usai ramai diperbincangkan, kode etik video semacam ini mulai dipertanyakan.

Dalam kebijakan pengguna yang diperbaharui Reddit, tidak dipernkenankan penggambaran seksual dipalsukan apalagi tanpa persetujuan dari mereka yang dijadikan obyek.

(Baca juga: Jaringan 5G Akan Segera Digunakan 18 Produsen Ini)

Bila aplikasi macam ini sudah umum digunakan, apakah kelak masih ada ruang bagi kita untuk berbagi foto pribadi secara bebas di jagad dunia maya?(*)