Sistem AI Baru Dapat Terjemahkan Isyarat Otak Manusia Ke Teks

323

Dunia kini baru sahaja hanya membiasakan diri dengan kuasa dan kecanggihan pembantu maya yang dibuat oleh syarikat-syarikat seperti Amazon dan Google. Pembantu maya tersebut mampu menyahkodakan percakapan kita dengan ketepatan yang menyeramkan berbanding kemampuan teknologi beberapa tahun yang lalu.

Namun, masih terdapat teknologi yang jauh lebih menakjubkan dan mengagumkan semakin hampir, menjadikan pengenalan percakapan kelihatan seperti permainan kanak-kanak; iaitu sistem kecerdasan buatan (AI) yang boleh menterjemahkan aktiviti otak kita ke dalam teks yang terbentuk sepenuhnya, tanpa mendengar walau sepatah pun perkataan.

Teknologi ini bukanlah fiksyen sains sepenuhnya. Sudah ada pun percubaan dalam membangunkan teknologi ini, cuma masih tidak mempunyai banyak ketepatan sahaja apa yang diterjemahkan oleh teknologi tersebut daripada aktiviti otak kita.

Untuk mengetahui sama ada mereka dapat memperbaiki teknologi tersebut, satu pasukan penyelidik yang diketuai oleh ahli bedah saraf Edward Chang dari Chang Lab UCSF menggunakan kaedah baru untuk menyahkod elektrokortikogram – rekod impuls elektrik yang berlaku semasa aktiviti kortikal, diambil oleh elektrod yang ditanamkan di dalam otak.

Dalam kajian ini, empat pesakit dengan epilepsi memakai implan untuk memantau sawan yang disebabkan oleh perubatan mereka. Pasukan UCSF menjalankan eksperimen sampingan dengan membuatkan peserta membaca dan mengulangi beberapa ayat yang ditetapkan, manakala elektrod mencatatkan aktiviti otak mereka ketika itu.

Data ini kemudiannya dimasukkan ke dalam rangkaian neural yang menganalisis corak dalam aktiviti otak yang sepadan dengan percakapan tertentu, seperti vokal, konsonan, atau pergerakan mulut berdasarkan rakaman audio eksperimen tersebut.

Yang terbaiknya, sistem tersebut telah menghasilkan keralatan (error) setiap peserta hanya 3% sahaja dalam menterjemahkan isyarat otak ke dalam teks. Seolah-olah AI hampir membaca fikiran seseorang, sekurang-kurangnya dalam eksperimen di mana persekitarannya ditentukan dengan ketat.

Menurut kertas kerja mereka, pasukan itu membincangkan banyak contoh kalimat rujukan yang dikatakan oleh peserta, bersama dengan ‘ramalan’ rangkaian yang dijana, kadang-kadang tidak tepat, tetapi tidak selalunya begitu. Walaupun kesilapannya jelas, mereka kelihatan sangat berbeza dengan hasil percakapan yang tersilap dengar oleh telinga manusia (boleh juga menjadi kesan sampingan set data terhad yang diperkenalkan kepada AI).

https://www.thepatriots.store/store/mahakarya/

Contoh kesilapan termasuk: ‘the museum hires musicians every evening’, yang diramalkan sebagai ‘the museum hires musicians every expensive morning‘; ‘part of the cake was eaten by the dog‘ ditafsir menjadi ‘part of the cake was the cookie’; dan ‘tina turner is a pop singer‘, menjadi ‘did turner is a pop singer‘.

Dalam kes-kes yang kurang tepat, kesilapan-kesilapan menunjukkan persamaan tidak ada kaitan, secara semantik atau secara fonetik, kepada apa yang dikatakan: ‘she wore warm fleecy woollen overalls’ telah ditafsirkan sebagai ‘the oasis was a mirage’.

Walaupun terdapat kesilapan-kesilapan yang ketara, keseluruhan sistem mungkin dapat memberikan penanda aras baru untuk penyahkodan aktiviti otak berasaskan AI, dan satunya yang paling setanding dengan transkripsi percakapan manusia yang profesional, yang mempunyai WER 5%, menurut pasukan tersebut.

Sudah tentu, penafsir profesional yang berurusan dengan penceramah manusia biasa perlu menghadapi perbendaharaan kata yang panjang sehingga puluhan ribu perkataan. Sebaliknya, sistem ini hanya perlu mempelajari tandatangan kortikal kira-kira 250 kata unik yang digunakan dalam satu set ayat pendek yang terhad, jadi ini bukan perbandingan yang adil.

Walaupun terdapat banyak rintangan yang perlu diatasi, pasukan tersebut mencadangkan agar suatu hari nanti sistem itu dapat dijadikan sebagai asas bagi prostesis pertuturan untuk pesakit yang kehilangan keupayaan untuk bercakap. Jika perkara sedemikian boleh terjadi, ia boleh menjadi sesuatu yang gempar – dengan menyediakan beberapa orang dengan cara untuk berkomunikasi dengan dunia – dan dengan cara yang mungkin jauh melampaui apa dari hasil eksperimen setakat ini.

“Dalam kalangan peserta yang diimplan secara kronik, jumlah data latihan yang ada akan menjadi klasifikasi yang kira-kira lebih daripada setengah jam sebutan yang digunakan dalam kajian ini,” penulis menjelaskan, “menunjukkan bahawa perbendaharaan kata dan fleksibiliti bahasa mungkin boleh diperkembangkan secara lebih lagi. ”

RUJUKAN:

  1. Makin, J. G., Moses, D. A., & Chang, E. F. (2020). Machine translation of cortical activity to text with an encoder–decoder framework(pp. 1-8). Nature Publishing Group.
  2. https://www.sciencealert.com/new-ai-system-translates-human-brain-signals-into-text-with-up-to-97-accuracy
Anda mungkin juga berminat

Ruangan komen telah ditutup.