Kemajuan industri perfileman telah membuahkan ribuan karya yang luar biasa, dengan teknologi penggambaran tidak terjangkau dek akal orang terdahulu. Walau bagaimanapun, kemajuan ini ada kesan sampingan yang mencelakakan.

Ramai dalam kalangan pelakon wanita Hollywood telah menjadi mαηgsα hanya dengan beberapa klik dalam perisian sahaja. Ceritanya senang saja. Bayangkan seorang pelakon wanita yang sangat masyhur sekarang.

Cari banyak gambar pelakon tersebut. Kemudian upah pelakon lµcαh untuk buat adegan yang sesuai dengan posisi gambar. Akhir sekali, jahitkan saja gambar dengan video pelakon tersebut (Statt, 2018). Gambar pelakon popular akan menjadi topeng, yang dipasangkan pada pelakon lµcαh.

Kemudian naikkan saja video tersebut atas talian. Orang bukan peduli pun pasal ketulenan. Janji fantasi dipenuhi. Itulah bahana teknologi zaman sekarang. Sesiapa saja boleh menjadi mαηgsα.

Diulangi semula, sesiapa saja boleh menjadi mαηgsα. Tambah dalam masyarakat yang terlalu taasub pada αib orang. Memang ini makananlah.

Teknologi ini dipanggil deep learning fakery – atau lebih mudah, deepfake. Teknik ini sudah lama ada. Kalau zaman dulu, ia dilaksanakan secara manual.

Dengan prasarana baru seperti kecekapan buatan, algoritma pembelajaran dan kecerdasan buatan, teknik deepfake sekarang sudah mampu memanipulasikan sesuatu gambar dengan video hingga boleh menjadi sesuatu yang sangat jelas dan kemas (Kietzmann, et al., 2020).

Terlalu kemas sampai deepfake boleh bantu menyebarkan berita palsu dan melaksanakan pemerdayaan kewangan (Roose, 2018). Walaupun wanita menjadi sasaran utama, ahli-ahli politik dan golongan agamawan turut dibuat sasaran (Dunn, 2021).

Contoh berita palsu melibatkan Barack Obama.

Inilah kedαhsyαtαn teknik deepfake yang boleh membinαsαkan reputasi seseorang. Bayangkan golongan yang tidak tahu menahu. Mesti terus buta pergi percaya benda yang ada pada mata, walaupun suatu penipuan jelas.

Apa Cara Kesan Deepfake?

Masyarakat yang suka menjaja αib orang memang rela mencelαkαkan diri sendiri dalam kancah kebodohan. Sebab mereka bukan mahu cari kebenaran. Mereka hanya mahu memuaskan hati yang penuh dengan sisa kesumat.

Tetapi golongan keramaian sangat tahu tentang perbezaan video benar dan bermanipulasi. Cara paling mudah adalah dengan perhatian sangat cukup. Perhatian saja boleh mengenal pasti sama ada sesuatu video benar atau dusta.

Kerana bukan semua orang ada aplikasi pintar yang boleh mengesan deepfake. Golongan pembikin filem memang lengkap bahagian ini. Mereka boleh menggunakan algoritma untuk mengenal pasti secara automatik. Kelompok marhaen perlu menggunakan mata – kalau boleh elak berkelip.

Kena tumpukan perhatian pada kedutan muka dan keadaan mata. Dua benda ini selalu gagal meyakinkan ketulenan sesuatu deepfake. Sementara deepfake mengenakan topeng pada muka, ia tidak mampu menyempurnakan setiap inci video.

Bayangkan begini. Dalam satu saat (video), selalunya ada 24 kepingan gambar.

Setiap kepingan gambar ini harus bergerak secara tersusun. Deepfake tidak mampu menyempurnakan semua gambar ini. Jadi secara jelas, semua boleh nampak keralatan bayang-bayang.

Dalam babak yang pencahayaan daripada sisi kiri, silap-silap bayang-bayang terpancar ke sisi atas (kadang bayang-bayang pun tiada). Walhal kawasan mata dan pipi wajib ada bayang-bayang (pancaran cahaya ke kening dan hidung akan membuat bayang-bayang).

Mata banyak memainkan peranan. Dalam video deepfake, kelipan mata takkan kena. Ada saja keralatannya. Semua ini akan menunjukkan kecαcαtan dalam usaha deepfake.

Bagi yang sanggup biar diri terbuai dalam kebodohan, mereka akan terus telan dan percaya deepfake meskipun sudah diberitahu. Satu lagi: deepfake adalah istilah saintifik. Istilah sebenar adalah fitnah. Mudah dan tuntas.

RUJUKAN:

Dunn, S. (2021, Mac 3). Women, Not Politicians, Are Targeted Most Often by DeepFake VIdeos. CIGI Online.

Kietzmann, J., et al. (2020). Deepfakes: Trick or Treat? Business Horizons. 63 (2): 135-146.

Roose, K. (2018, Mac 4). Here Come the Fake Videos, Too. The New York Times.

Statt, N. (2018, Januari 24). Fake celebrity (ditapiskan) is blowing up on Reddit, thanks to artificial intelligence. The Verge.


Perhatian sebentar…

Sejak 2012, kami bersungguh menyediakan bacaan digital secara percuma di laman ini dan akan terus mengadakannya selaras dengan misi kami memandaikan anak bangsa.

Namun menyediakan bacaan secara percuma memerlukan perbelanjaan tinggi yang berterusan dan kami sangat mengalu-alukan anda untuk terus menyokong perjuangan kami.

Tidak seperti yang lain, The Patriots tidak dimiliki oleh jutawan mahupun politikus, maka kandungan yang dihasilkan sentiasa bebas dari pengaruh politik dan komersial. Ini mendorong kami untuk terus mencari kebenaran tanpa rasa takut supaya nikmat ilmu dapat dikongsi bersama.

Kini, kami amat memerlukan sokongan anda walaupun kami faham tidak semua orang mampu untuk membayar kandungan. Tetapi dengan sokongan anda, sedikit sebanyak dapat membantu perbelanjaan kami dalam meluaskan lagi bacaan percuma yang bermanfaat untuk tahun 2024 ini dan seterusnya. Meskipun anda mungkin tidak mampu, kami tetap mengalu-alukan anda sebagai pembaca.

Sokong The Patriots dari serendah RM2.00, dan ia hanya mengambil masa seminit sahaja. Jika anda berkemampuan lebih, mohon pertimbangkan untuk menyokong kami dengan jumlah yang disediakan. Terima kasih. Moving forward as one.

Pilih jumlah sumbangan yang ingin diberikan di bawah.

RM2 / RM5 / RM10 / RM50

Terima kasih


Share.

Berbekalkan buku “Perang Salib Pertama: Kelahiran Templar”, Ahmad Faezal mempunyai suatu matlamat bagi Malaysia. Dalam kaca mata beliau, bangsa Melayu perlu bangkit membaham ilmu sepertimana mereka memakan nasi. Seorang pengikut setia bidang astronomi dan isu semasa, beliau mengimpikan bangsa Melayu dalam masa 100 tahun boleh melibatkan diri secara aktif dalam bidang-bidang sains terperinci. Beliau juga seorang penulis dan penterjemah upahan, yang sedia menerima klien.

Comments are closed.