Moving Forward As One

Memahami Teknologi Deepfake Yang Boleh Mengundang Fitnah

2,211

Kemajuan industri perfileman telah membuahkan ribuan karya yang luar biasa, dengan teknologi penggambaran tidak terjangkau dek akal orang terdahulu. Walau bagaimanapun, kemajuan ini ada kesan sampingan yang mencelakakan.

Ramai dalam kalangan pelakon wanita Hollywood telah menjadi mαηgsα hanya dengan beberapa klik dalam perisian sahaja. Ceritanya senang saja. Bayangkan seorang pelakon wanita yang sangat masyhur sekarang.

Cari banyak gambar pelakon tersebut. Kemudian upah pelakon lµcαh untuk buat adegan yang sesuai dengan posisi gambar. Akhir sekali, jahitkan saja gambar dengan video pelakon tersebut (Statt, 2018). Gambar pelakon popular akan menjadi topeng, yang dipasangkan pada pelakon lµcαh.

Kemudian naikkan saja video tersebut atas talian. Orang bukan peduli pun pasal ketulenan. Janji fantasi dipenuhi. Itulah bahana teknologi zaman sekarang. Sesiapa saja boleh menjadi mαηgsα.

Diulangi semula, sesiapa saja boleh menjadi mαηgsα. Tambah dalam masyarakat yang terlalu taasub pada αib orang. Memang ini makananlah.

Teknologi ini dipanggil deep learning fakery – atau lebih mudah, deepfake. Teknik ini sudah lama ada. Kalau zaman dulu, ia dilaksanakan secara manual.

Dengan prasarana baru seperti kecekapan buatan, algoritma pembelajaran dan kecerdasan buatan, teknik deepfake sekarang sudah mampu memanipulasikan sesuatu gambar dengan video hingga boleh menjadi sesuatu yang sangat jelas dan kemas (Kietzmann, et al., 2020).

Terlalu kemas sampai deepfake boleh bantu menyebarkan berita palsu dan melaksanakan pemerdayaan kewangan (Roose, 2018). Walaupun wanita menjadi sasaran utama, ahli-ahli politik dan golongan agamawan turut dibuat sasaran (Dunn, 2021).

Contoh berita palsu melibatkan Barack Obama.

Inilah kedαhsyαtαn teknik deepfake yang boleh membinαsαkan reputasi seseorang. Bayangkan golongan yang tidak tahu menahu. Mesti terus buta pergi percaya benda yang ada pada mata, walaupun suatu penipuan jelas.

Apa Cara Kesan Deepfake?

Masyarakat yang suka menjaja αib orang memang rela mencelαkαkan diri sendiri dalam kancah kebodohan. Sebab mereka bukan mahu cari kebenaran. Mereka hanya mahu memuaskan hati yang penuh dengan sisa kesumat.

Tetapi golongan keramaian sangat tahu tentang perbezaan video benar dan bermanipulasi. Cara paling mudah adalah dengan perhatian sangat cukup. Perhatian saja boleh mengenal pasti sama ada sesuatu video benar atau dusta.

Kerana bukan semua orang ada aplikasi pintar yang boleh mengesan deepfake. Golongan pembikin filem memang lengkap bahagian ini. Mereka boleh menggunakan algoritma untuk mengenal pasti secara automatik. Kelompok marhaen perlu menggunakan mata – kalau boleh elak berkelip.

Kena tumpukan perhatian pada kedutan muka dan keadaan mata. Dua benda ini selalu gagal meyakinkan ketulenan sesuatu deepfake. Sementara deepfake mengenakan topeng pada muka, ia tidak mampu menyempurnakan setiap inci video.

Bayangkan begini. Dalam satu saat (video), selalunya ada 24 kepingan gambar.

Setiap kepingan gambar ini harus bergerak secara tersusun. Deepfake tidak mampu menyempurnakan semua gambar ini. Jadi secara jelas, semua boleh nampak keralatan bayang-bayang.

Dalam babak yang pencahayaan daripada sisi kiri, silap-silap bayang-bayang terpancar ke sisi atas (kadang bayang-bayang pun tiada). Walhal kawasan mata dan pipi wajib ada bayang-bayang (pancaran cahaya ke kening dan hidung akan membuat bayang-bayang).

Mata banyak memainkan peranan. Dalam video deepfake, kelipan mata takkan kena. Ada saja keralatannya. Semua ini akan menunjukkan kecαcαtan dalam usaha deepfake.

Bagi yang sanggup biar diri terbuai dalam kebodohan, mereka akan terus telan dan percaya deepfake meskipun sudah diberitahu. Satu lagi: deepfake adalah istilah saintifik. Istilah sebenar adalah fitnah. Mudah dan tuntas.

RUJUKAN:

Dunn, S. (2021, Mac 3). Women, Not Politicians, Are Targeted Most Often by DeepFake VIdeos. CIGI Online.

Kietzmann, J., et al. (2020). Deepfakes: Trick or Treat? Business Horizons. 63 (2): 135-146.

Roose, K. (2018, Mac 4). Here Come the Fake Videos, Too. The New York Times.

Statt, N. (2018, Januari 24). Fake celebrity (ditapiskan) is blowing up on Reddit, thanks to artificial intelligence. The Verge.

Ruangan komen telah ditutup.