SYDNEY – Para raksasa teknologi bergegas mempertaruhkan klaim mereka di pasar chatbot AI yang menguntungkan, namun mereka mengorbankan transparansi yang sangat penting dalam prosesnya.
AI Chatbots seperti bus: Anda menunggu setengah jam di tengah hujan tanpa ada seorang pun yang terlihat, lalu tiga orang datang pada saat yang bersamaan. Pada bulan Maret 2023, OpenAI merilis chatbot terbarunya, GPT-4. Ini adalah nama yang lebih terdengar seperti mobil reli daripada asisten AI, tetapi ini menandai era baru dalam komputasi.
Google merespons dengan Bard, chatbot pencariannya yang lebih terkenal. Raksasa pencarian asal Tiongkok, Baidu, telah meluncurkan Ernie Bot yang terdengar kurang ajar. Salesforce mendemonstrasikan chatbot Einstein GPT yang terdengar lebih serius. Dan Snapchat, tidak mau kalah, mengumumkan chatbot AI Saya.
Saat ini sudah menjadi tren bagi setiap platform teknologi dan perusahaan perangkat lunak perusahaan untuk memiliki chatbot AI yang menyediakan antarmuka cerdas untuk perangkat lunak mereka. Ini mungkin akan segera terlihat dan terdengar seperti film Hollywood Miliknya. Kami akan berinteraksi dengan perangkat pintar kami melalui chatbot AI. Kami akan berbicara dengan mereka. Mereka akan memahami tugas yang kompleks dan tingkat tinggi. Mereka akan mengingat konteks pembicaraan kita. Dan mereka dengan cerdas akan melakukan apa yang kita perintahkan.
Kami masih mencari tahu apa yang bisa dilakukan chatbot ini. Beberapa di antaranya ajaib. Menulis surat pengaduan kepada dewan atas tilang parkir yang tidak layak. Atau buatlah puisi untuk ulang tahun kerja kolega Anda yang ke-25. Namun beberapa diantaranya lebih menyusahkan. Chatbots seperti ChatGPT atau GPT-4, misalnya, akan mengarang dan dengan percaya diri memberi tahu Anda kebenaran, kebohongan, dan segala sesuatu di antaranya. Istilah teknis untuk ini, menurut para ahliadalah “halusinasi”.
Tujuannya bukan untuk menghilangkan halusinasi. Bagaimana lagi chatbot menulis puisi itu jika tidak bisa berhalusinasi? Tujuannya adalah untuk mencegah chatbot berhalusinasi terhadap hal-hal yang tidak benar, terutama yang menyinggung, ilegal, atau berbahaya.
Pada akhirnya, masalah chatbot yang berhalusinasi ketidakbenaran kemungkinan besar akan teratasi, bersama dengan masalah lain seperti bias, kurangnya referensi, dan masalah hak cipta saat menggunakan kekayaan intelektual orang lain untuk melatih chatbot. Namun, yang meresahkan adalah perusahaan teknologi yang terlalu berhati-hati dengan terburu-buru menyerahkan alat AI ini ke tangan publik dengan perlindungan atau pengawasan yang terbatas.
Dalam beberapa tahun terakhir, perusahaan-perusahaan teknologi telah mengembangkan kerangka kerja etis untuk penerapan AI yang bertanggung jawab, menunjuk tim ilmuwan untuk mengawasi penerapan kerangka kerja tersebut, dan menolak seruan untuk mengatur aktivitas mereka. Namun tekanan komersial tampaknya mengubah semua itu.
Pada saat yang sama ketika Microsoft mengumumkan bahwa mereka menyertakan ChatGPT di semua perangkat lunaknya, Microsoft melepaskan salah satu tim AI dan Etikanya. Transparansi adalah prinsip inti dari prinsip AI Microsoft yang bertanggung jawab, namun Microsoft adalah inti dari prinsip tersebut diam-diam menggunakan GPT-4 dalam pencarian Bing baru selama beberapa bulan terakhir.
Google, yang sebelumnya tidak merilis chatbot LaMDA ke publik karena kekhawatiran akan potensi ketidakakuratan, tampaknya terdorong untuk bertindak oleh pengumuman Microsoft bahwa pencarian Bing akan menggunakan ChatGPT. Chatbot Bard Google adalah hasil penambahan LaMDA ke alat pencarian populernya. Keputusan untuk membuat chatbot Bard memakan banyak biaya bagi Google: kesalahan sederhana pada demo pertama Bard menghapus USD$100 miliar dari harga saham perusahaan induk Google, Alphabet.
OpenAI, perusahaan di balik ChatGPT, memiliki laporan teknikal menjelaskan GPT-4. Misi inti OpenAI adalah pengembangan kecerdasan umum buatan yang bertanggung jawab – AI yang sama pintarnya atau lebih pintar dari manusia. Namun laporan teknis OpenAI lebih berupa laporan resmi dibandingkan laporan teknis, tanpa rincian teknis tentang GPT-4 atau data pelatihannya. OpenAI tidak malu-malu dalam menjaga kerahasiaannya, dan menyalahkan lanskap komersial sebagai prioritas pertama dan keamanan sebagai prioritas kedua. Peneliti AI tidak dapat memahami risiko dan kemampuan GPT-4 jika mereka tidak mengetahui data apa yang digunakan untuk melatihnya. Satu-satunya bagian OpenAI yang terbuka saat ini adalah namanya.
Ada jurang yang terbuka lebar antara apa yang diumumkan oleh perusahaan teknologi dan apa yang bisa dilakukan produk mereka, yang hanya bisa ditutup dengan tindakan pemerintah. Jika organisasi-organisasi ini menjadi kurang transparan dan bertindak lebih ceroboh, maka pemerintah harus mengambil tindakan. Harapkan regulasi.
Kita bisa melihat ke bidang industri lain untuk mengetahui seperti apa peraturan tersebut. Di bidang berisiko tinggi seperti penerbangan atau farmakologi, terdapat badan pemerintah yang memiliki kewenangan signifikan untuk mengawasi teknologi baru. Kita juga bisa melihat Eropa yang kedatangannya Hukum AI memiliki fokus berbasis risiko yang signifikan. Apa pun bentuk peraturan ini, penting bagi kita untuk memastikan manfaat AI dan menghindari risiko.
Toby Walsh adalah Kepala Ilmuwan dari UNSW.AI, Institut AI baru di UNSW. Dia adalah anggota Akademi Sains Australia. Buku terbarunya adalah “Mesin Berperilaku Buruk: Moralitas AI”.
Prof Walsh didukung oleh ARC melalui ARC Laureate Fellowship yang meneliti “AI yang dapat dipercaya”.