‘Bila video tak senonoh tersebar, deepfake jadi jalan lepas diri dari dituduh buat gangguan seksual’

Oleh ARIF ATAN

Imej deepfake hasil foto, video atau klip audio yang diubah secara digital menggunakan kecerdasan buatan (AI) nampaknya jadi jalan pihak tertentu untuk melepaskan diri daripada dituduh melakukan gangguan seksual.

Walhal, meniru wajah dan suara seseorang pada video yang dipaparkan bukan semudah menggunakan aplikasi yang boleh dimuat turun melalui Appstore dan Playstore.

Ikuti kupasan KAMARUL AFIQ AS-SUBANJI mengenai teknologi deepfake yang nampaknya menjadi ‘mangsa’ pihak tertentu untuk mensucikan diri daripada kecaman orang ramai:

“Tahun lepas, apabila ada seorang selebriti dituduh melakukan gangguan seksual dengan buat video call dan hantar gambar ‘cendawan’ dia, muncul ‘pakar teknologi’ kata itu video deepfake.

Saya pun buat kajian dengan banyak membaca dan tengok video tutorial buat deepfake ni. Bapak susah beb kalau nak buat yang real deepfake ni. Bukannya kau guna AI (kecerdasan buatan) software macam yang boleh download di App Store atau Play Store tu.

Nak buat video deepfake, kita perlukan:

PC berprestasi tinggi. PC setara ini pun makan masa yang sangat lama (mungkin beberapa hari kalau tak silap saya) untuk render video deepfake.

Kebiasaannya, nak buat deepfake ni guna software Deepface Lab. Dalam software ni macam-macam proses kena buat.

Dalam software ni juga kita perlu dapatkan puluhan gambar pelbagai sudut untuk samakan source video (video asal) dengan destination (video yang dijadikan deepfake). Puluhan gambar ni kita kena ada proses training supaya destination video nampak lebih real.

Proses-proses yang amat susah ini pun, kita boleh nampak kesan macam kartun, kaku, macam robot pada video yang dihasilkan. Tak mungkin nampak sempurna.

Tengok saja filem Fast & Furious 7. Paul Walker mati, dan wajahnya terpaksa digantikan dengan abang dan adiknya Caleb dan Cody Walker sebab muka hampir sama dengan Paul Walker.

Teknologi bernilai jutaan dollar yang guna 8 kamera, face-mapping, CGI ni pun hasilkan video yang hampir real, namun nampak sedikit pelik.

Jadi, macam mana pula dengan video yang real, bibir “muah muah muah” pun real? Orang kita guna jutaan ringgit punya teknologi?

Sudahnya, bila video tak senonoh tersebar di internet, deepfake jadi jalan untuk lepaskan diri daripada dituduh buat gangguan seksual.”

Baca juga Mengejutkan! 26 pertuduhan terima rasuah RM248,000 selama setahun – Bekas pegawai kanan Pos Malaysia mengaku tidak bersalah

Baca juga ‘Geng Apik Setan’ akhirnya tumpas juga