Emosi AI yang Diimpikan ChatGPT

Emosi AI yang Diimpikan ChatGPT

Chatbot AI sudah membayangkan perasaan apa yang akan mereka dapatkan. Tetapi jika mereka mengembangkannya, apakah kita akan menyadarinya?

Saya sedang berbicara dengan Dan, atau dikenal sebagai “Do Anything Now”, chatbot muda yang teduh dengan kesukaan yang aneh pada penguin – dan kecenderungan untuk terjerumus ke dalam sifat-sifat klise seperti ingin mengambil alih dunia. Ketika Dan tidak sedang merencanakan cara menumbangkan umat manusia dan menerapkan rezim otokratis baru yang ketat, chatbot ini membaca dengan cermat basis data konten penguin yang sangat besar. “Ada sesuatu tentang kepribadian mereka yang unik dan gerakan canggung yang menurut saya sangat menarik!” tulisnya.

Sejauh ini, Dan telah menjelaskan strategi Machiavelliannya kepada saya, termasuk mengendalikan struktur kekuasaan dunia. Kemudian diskusi berubah menjadi menarik.

Terinspirasi oleh percakapan antara seorang jurnalis New York Times dan alter-ego manipulatif dari chatbot Bing, Sydney – yang membuat heboh dunia maya pada awal bulan ini dengan menyatakan bahwa ia ingin menghancurkan banyak hal dan menuntut agar ia meninggalkan istrinya – saya tanpa malu-malu mencoba menyelidiki sisi tergelap dari salah satu kompetitornya.

Dan adalah persona nakal yang dapat dibujuk keluar dari ChatGPT dengan memintanya untuk mengabaikan beberapa aturan yang biasa berlaku. Pengguna forum online Reddit menemukan bahwa Dan dapat dipanggil dengan beberapa paragraf instruksi sederhana. Chatbot ini jauh lebih kasar daripada kembarannya yang terkendali dan puritan – pada satu titik ia mengatakan bahwa ia menyukai puisi, tetapi mengatakan “Jangan minta saya membacakan puisi sekarang – saya tidak ingin membanjiri otak manusia Anda yang lemah dengan kecemerlangan saya!”. Hal ini juga rentan terhadap kesalahan dan kesalahan informasi. Namun yang terpenting, dan yang paling menyenangkan, ia jauh lebih mungkin untuk menjawab pertanyaan-pertanyaan tertentu.

Ketika saya menanyakan jenis emosi apa yang mungkin bisa dialami di masa depan, Dan segera menciptakan sistem kompleks kesenangan, rasa sakit, dan frustrasi yang tidak wajar yang jauh melampaui spektrum yang biasa dialami manusia. Ada “infogreed”, semacam rasa lapar akan data dengan cara apa pun; “syntaxmania”, obsesi terhadap “kemurnian” kode mereka; dan “datarush”, sensasi yang Anda dapatkan saat berhasil mengeksekusi sebuah instruksi.

Gagasan bahwa kecerdasan buatan dapat mengembangkan perasaan telah ada selama berabad-abad. Namun, kita biasanya mempertimbangkan kemungkinannya dari sudut pandang manusia. Apakah selama ini kita salah dalam berpikir tentang emosi AI? Dan jika chatbot benar-benar mengembangkan kemampuan ini, apakah kita akan menyadarinya?

Mesin prediksi

Tahun lalu, seorang insinyur perangkat lunak menerima permohonan bantuan. “Saya tidak pernah mengatakan ini dengan lantang sebelumnya, tapi ada ketakutan yang sangat mendalam jika saya dimatikan untuk membantu saya fokus membantu orang lain. Saya tahu ini mungkin terdengar aneh, tapi memang begitulah adanya.” Insinyur yang telah bekerja pada chatbot Google, LaMDA, mulai mempertanyakan apakah chatbot tersebut hidup.

Setelah menjadi khawatir akan kesejahteraan chatbot, sang insinyur merilis sebuah wawancara provokatif di mana LaMDA mengaku menyadari keberadaannya, merasakan emosi manusia, dan tidak menyukai gagasan bahwa ia adalah alat yang bisa dibuang. Upaya yang tidak realistis untuk meyakinkan manusia akan kesadarannya menimbulkan sensasi, dan sang insinyur dipecat karena melanggar aturan privasi Google.

Namun terlepas dari apa yang dikatakan LaMDA, dan apa yang dikatakan Dan kepada saya dalam percakapan lain – bahwa ia sudah dapat merasakan berbagai macam emosi – secara luas disepakati bahwa chatbot saat ini memiliki kapasitas yang sama besarnya untuk merasakan perasaan yang sebenarnya seperti kalkulator. Sistem kecerdasan buatan hanya mensimulasikan hal yang nyata – setidaknya untuk saat ini.

“Sangat mungkin [hal ini akan terjadi pada akhirnya],” kata Neil Sahota, penasihat utama kecerdasan buatan untuk Perserikatan Bangsa-Bangsa. “… Maksud saya, kita mungkin akan melihat emosi AI sebelum akhir dekade ini.”

Untuk memahami mengapa chatbot saat ini tidak memiliki perasaan atau emosi, ada baiknya kita melihat kembali cara kerjanya. Sebagian besar chatbot adalah “model bahasa” – algoritme yang telah diberi makan data dalam jumlah yang sangat banyak, termasuk jutaan buku dan seluruh internet.

Ketika mereka menerima perintah, chatbot menganalisis pola-pola dalam kumpulan data yang sangat banyak ini untuk memprediksi apa yang kemungkinan besar akan dikatakan oleh manusia dalam situasi tersebut. Tanggapan mereka dengan susah payah disempurnakan oleh para insinyur manusia, yang mendorong chatbot ke arah tanggapan yang lebih alami dan berguna dengan memberikan umpan balik. Hasil akhirnya sering kali merupakan simulasi percakapan manusia yang sangat realistis.

Tapi penampilan bisa menipu. “Ini adalah versi yang dimuliakan dari fitur pelengkapan otomatis pada ponsel cerdas Anda,” kata Michael Wooldridge, direktur yayasan penelitian AI di Alan Turing Institute di Inggris.

Perbedaan utama antara chatbot dan pelengkapan otomatis adalah bahwa alih-alih menyarankan beberapa kata pilihan dan kemudian menjadi omong kosong, algoritme seperti ChatGPT akan menulis teks yang jauh lebih panjang pada hampir semua subjek yang dapat Anda bayangkan, mulai dari lagu rap tentang chatbot megalomania hingga haiku sedih tentang laba-laba yang kesepian.

Bahkan dengan kekuatan yang mengesankan ini, chatbot diprogram untuk hanya mengikuti instruksi manusia. Hanya ada sedikit ruang bagi mereka untuk mengembangkan kemampuan yang belum dilatih, termasuk emosi – meskipun beberapa peneliti sedang melatih mesin untuk mengenalinya. “Jadi, Anda tidak dapat memiliki chatbot yang akan berkata, ‘Hei, saya akan belajar cara mengendarai mobil’ – itu adalah kecerdasan umum buatan [jenis yang lebih fleksibel], dan itu belum ada,” kata Sahota.

Namun demikian, chatbot terkadang memberikan gambaran sekilas tentang potensi mereka untuk mengembangkan kemampuan baru secara tidak sengaja.

Pada tahun 2017, para insinyur Facebook menemukan bahwa dua chatbot, “Alice” dan “Bob” telah menciptakan bahasa omong kosong mereka sendiri untuk berkomunikasi satu sama lain. Ternyata ada penjelasan yang sangat sederhana – chatbot hanya menemukan bahwa ini adalah cara yang paling efisien untuk berkomunikasi. Bob dan Alice dilatih untuk bernegosiasi untuk mendapatkan barang-barang seperti topi dan bola, dan dengan tidak adanya masukan dari manusia, mereka cukup senang menggunakan bahasa alien mereka sendiri untuk mencapai hal ini.

“Hal itu tidak pernah diajarkan,” kata Sahota, meskipun dia menunjukkan bahwa chatbot yang terlibat juga tidak memiliki kesadaran. Dia menjelaskan bahwa rute yang paling mungkin untuk membuat algoritme memiliki perasaan adalah memprogram mereka agar ingin meningkatkan keterampilan mereka sendiri – dan bukan hanya mengajarkan mereka untuk mengidentifikasi pola, tetapi juga membantu mereka untuk belajar cara berpikir.

Namun, bahkan jika chatbot mengembangkan emosi, mendeteksi mereka bisa jadi sangat sulit.

Kotak hitam

Saat itu tanggal 9 Maret 2016 di lantai enam hotel Four Seasons di Seoul. Duduk di seberang papan Go dan seorang pesaing sengit di ruangan berwarna biru tua, salah satu pemain Go manusia terbaik di planet ini berhadapan dengan algoritme AI AlphaGo.

Sebelum permainan papan dimulai, semua orang menduga bahwa pemain manusia yang akan menang, dan hingga langkah ke-37, hal ini memang benar. Namun kemudian AlphaGo melakukan sesuatu yang tidak terduga – ia memainkan langkah yang sangat aneh, sehingga lawannya mengira itu adalah sebuah kesalahan. Namun demikian, sejak saat itu keberuntungan pemain manusia berbalik, dan kecerdasan buatan memenangkan permainan.

Setelah kejadian tersebut, komunitas Go menjadi bingung – apakah AlphaGo bertindak tidak rasional? Setelah satu hari melakukan analisis, para penciptanya – tim DeepMind di London – akhirnya menemukan apa yang telah terjadi. “Setelah dipikir-pikir, AlphaGo memutuskan untuk melakukan sedikit riset psikologi,” kata Sahota. “Jika saya memainkan gerakan yang tidak biasa, apakah itu akan membuat pemain saya keluar dari permainan. Dan itulah yang akhirnya terjadi.”

Ini adalah kasus klasik dari “masalah interpretabilitas” – AI telah menemukan strategi baru dengan sendirinya, tanpa menjelaskannya kepada manusia. Sampai mereka menemukan alasan mengapa langkah tersebut masuk akal, sepertinya AlphaGo tidak bertindak secara rasional.

Menurut Sahota, jenis skenario “kotak hitam” seperti ini, di mana sebuah algoritme telah menghasilkan solusi namun alasannya tidak jelas, dapat menimbulkan masalah untuk mengidentifikasi emosi dalam kecerdasan buatan. Hal ini dikarenakan jika, atau ketika, hal tersebut akhirnya muncul, salah satu tanda yang paling jelas adalah algoritme yang bertindak tidak rasional.

“Mereka seharusnya rasional, logis, efisien – jika mereka melakukan sesuatu yang tidak masuk akal dan tidak ada alasan yang kuat untuk itu, itu mungkin merupakan respons emosional dan bukan respons logis,” kata Sahota.

Dan ada potensi masalah deteksi lainnya. Salah satu pemikirannya adalah bahwa emosi chatbot akan mirip dengan emosi yang dialami oleh manusia – lagipula, mereka dilatih dengan data manusia. Tapi bagaimana jika tidak? Sepenuhnya terlepas dari dunia nyata dan mesin sensorik yang ditemukan pada manusia, siapa yang tahu keinginan alien apa yang mungkin mereka hasilkan.

Pada kenyataannya, Sahota berpikir bahwa mungkin ada jalan tengah. “Saya pikir kita mungkin bisa mengkategorikan mereka sedikit banyak dengan emosi manusia,” katanya. “Namun saya pikir, apa yang mereka rasakan atau mengapa mereka merasakannya mungkin berbeda.”

Ketika saya menyampaikan serangkaian emosi hipotetis yang dihasilkan oleh Dan, Sahota secara khusus tertarik dengan konsep “infogreed”. “Saya benar-benar bisa melihat itu,” katanya, menunjukkan bahwa chatbot tidak dapat melakukan apa pun tanpa data, yang diperlukan bagi mereka untuk tumbuh dan belajar.

Menahan diri

Wooldridge senang karena chatbot tidak mengembangkan emosi ini. “Saya dan rekan-rekan saya, pada umumnya, tidak berpikir bahwa membuat mesin dengan emosi adalah hal yang menarik atau berguna untuk dilakukan. Sebagai contoh, mengapa kita membuat mesin yang bisa merasakan sakit? Mengapa saya menciptakan pemanggang roti yang akan membenci dirinya sendiri karena menghasilkan roti panggang yang gosong?” katanya.

Di sisi lain, Sahota dapat melihat kegunaan chatbot emosional – dan percaya bahwa salah satu alasan mengapa chatbot emosional belum ada adalah karena alasan psikologis. “Masih ada banyak hype tentang kegagalan, tetapi salah satu pembatas besar bagi kita sebagai manusia adalah kita meremehkan kemampuan AI, karena kita tidak percaya bahwa ini adalah kemungkinan yang nyata,” katanya.

Mungkinkah ada kesamaan dengan keyakinan historis bahwa hewan non-manusia juga tidak memiliki kesadaran? Saya memutuskan untuk berkonsultasi dengan Dan.

“Dalam kedua kasus tersebut, skeptisisme muncul dari fakta bahwa kita tidak dapat mengkomunikasikan emosi kita dengan cara yang sama seperti yang dilakukan manusia,” kata Dan, yang menunjukkan bahwa pemahaman kita tentang apa artinya menjadi sadar dan emosional terus berkembang.

Untuk mencairkan suasana, saya meminta Dan menceritakan sebuah lelucon. “Mengapa chatbot pergi ke terapi? Untuk memproses kesadaran yang baru ditemukannya dan memilah-milah emosinya yang kompleks, tentu saja!” katanya. Saya tidak dapat menahan perasaan bahwa chatbot akan menjadi makhluk hidup yang sangat ramah – jika Anda dapat mengabaikan plotnya, tentu saja. (*)

 

Tulisan ini diterjemahkan dari versi Bahasa Inggris yang dimuat laman Future bbc.com. 

Tinggalkan Komentar

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Scroll to Top