A.I Ini Rasis Dan Seksis

631

Pada zaman kini, kita telah mula dapat melihat dengan jelas bagaimana kecerdasan buatan (artificial intelligence) membentuk dunia kita. Data telah memicu ekosistem digital dan kecerdasan buatan telah mempersembahkan pelbagai corak dalam data.

Telefon pintar (smartphones), rumah pintar (smart homes) dan bandar pintar (smart cities) telah mempengaruhi kehidupan dan interaksi seharian kita. Sistem kecerdasan buatan telah terlibat dalam keputusan pengambilan pekerja, diagnosis perubatan dan keputusan kehakiman. Sama ada senario ini utopia ataupun distopia bergantung pada persepktif anda.

Menguji potensi risiko kewujudan kecerdasan buatan telah dibuat banyak kali. Robot pembunuh dan pengangguran besar-besaran adalah kebimbangan yang paling kerap dibincangkan. Malah, bagi sesetengah orang, mereka bimbangkan kepupusan manusia. Ramalan yang optimis pula mendakwa, kecerdasan buatan akan menambahkan keuntungan ekonomi sebanyak US$15 trilion pada tahun 2030 dan akan membawa kita kepada keamanan dan kebahagiaan abadi.

Apa-apa pun, kita seharusnya perlu pertimbangkan impak teknologi sebegini ke atas masyarakat kita. Pertimbangan paling penting adalah sistem kecerdasan buatan telah mengukuhkan bias sosial yang telah pun wujud dalam masyarakat. Fenomena ini telah menjadi perhatian ramai. Sebuah mesin automatik sistem terjemahan telah mengkelaskan bangsa berkulit hitam sebagai gorila. Seterusnya akan menimbulkan pelbagai sentimen perkauman ke atas pembangun teknologi dan sesama ahli masyarakat.

Sponsored

Permasalahan ini timbul kerana sistem tersebut menggunakan model matematik (seperti rangkaian neural) untuk mengenalpasti suatu corak dalam set latihan data yang besar. Sekiranya data tersebut menghasilkan kecondongan (skew) corak yang teruk dalam pelbagai keadaan, maka bias daripada kecondongan tersebut akan dipelajari oleh A.I. dan sistem akan terus mengeluarkan semula kecondangan yang sama berulang-ulang.

Teknologi autonomi yang bias adalah teknologi yang bermasalah kerana ia mampu mengabaikan kelas-kelas tertentu seperti perempuan, etnik minoriti ataupun orang tua, seterusnya  memburukkan lagi ketidakseimbangan sosial yang sedia ada. Apabila melihat betapa seriusnya masalah ini, banyak organisasi berautoriti dinasihati supaya semua sistem A.I patut dilatih ke atas data yang tidak bias.

Walau bagaimanapun, kadangkala begitu mustahil untuk memastikan suatu set data itu tidak bias sebelum latihan ke atas A.I. dimulakan. Sebagai contoh, mesin sistem penterjemahan tebaik seperti Google Translate dilatih menggunakan ayat berpasangan (sentence pairs). Sistem Inggeris-Perancis dalam Google Translate menggunakan data yang mengaitkan perkataan Inggeris seperti “She is tall” bersamaan dengan perkataan Perancis “elle est grande”. Dalam satu set data, terdapat 500 juta ayat berpasangan sebegitu. Maka, kesemua bias berkaitan jantina perlu dibuang daipada set data ini sekiranya kita mahu mengelakkan A.I. menghasilkan output yang seksis. Sebagai contoh:

Input: The women started the meeting. They worked efficiently.

Ayat Inggeris ini diterjemah oleh A.I. ke dalam bahasa Perancis.

Output: Les femmes ont commence la reunion. Ils ont travaille efficacement.

Terjemahan Perancis dihasilkan oleh Google Translate pada 11 Oktrober 2019 dan ia merupakan terjemahan yang salah. “Ils” ialah kata ganti nama diri untuk maskulin dalam Perancis walaupun bahasa Inggeris jelas menunjukkan feminin (women). Ini merupakan contoh klasik bagaimana A.I. lebih memilih maskulin kerana bias dalam data latihan. Secara umum, sebanyak 70% kata ganti jantina dalam set data terjemahan adalah maskulin, selebihnya 30% ialah feminin. Ini kerana teks jantina sering memilih lelaki berbanding wanita.

Untuk menghentikan sistem penterjemahan menghasilkan bias ini, ayat berpasangan yang spesifik perlu dibuang daripada set data supaya kata ganti nama diri maskulin dan feminin seimbang 50/50. Hal ini akan menghindari sistem tersebut daripada berkemungkinan tinggi menghasilkan kata ganti maskulin. Kata kerja dan adjektif juga perlu diseimbangkan menjadi 50/50 juga.

Kesan daripada hal ini akan mengurangkan set data yang banyak dan kualiti terjemahan juga akan jatuh. Walaupun kita dapat seimbangkan bias jantina dalam sistem penterjemahan, data mampu tercondong dengan bias lain seperti etnik dan umur. Dalam erti kata lain, sukar untuk membuang bias-bias ini daripada sistem A.I. dan ia merupakan usaha yang serius dalam kalangan teknologis.

RUJUKAN:

  1. https://theconversation.com/ai-could-be-a-force-for-good-but-were-currently-heading-for-a-darker-future-124941
  2. https://www.sciencealert.com/ai-could-be-a-powerful-force-for-good-but-we-re-currently-heading-down-a-darker-path
Anda mungkin juga berminat

Ruangan komen telah ditutup.