8 Juni 2023
SINGAPURA – Para penggerak dan pelopor kecerdasan buatan (AI) telah bekerja sama dengan pihak berwenang di sini untuk mengatasi masalah-masalah mendesak dalam AI, seperti bias, hak cipta, dan kerentanannya terhadap kebohongan.
AI Verify Foundation terdiri dari setidaknya 60 pemain industri global. Hal ini diumumkan oleh Menteri Komunikasi dan Informasi Josephine Teo pada hari Rabu di konferensi Asia Tech x Singapore di Capella Singapore di Sentosa, yang berlangsung dari Selasa hingga Jumat.
Yayasan yang berbasis di Singapura ini mencakup Infocomm Media Development Authority (IMDA), raksasa teknologi Google dan Microsoft, serta perusahaan-perusahaan terkenal yang menangani AI, termasuk DBS, Meta, dan Adobe.
Mereka akan membahas standar dan praktik terbaik AI serta menciptakan platform netral untuk kerja sama dalam tata kelola AI, kata IMDA.
Anggota yayasan ini akan berkontribusi pada perangkat lunak yang dikembangkan oleh IMDA yang menganalisis kumpulan data dan kode AI untuk memeriksa bias, transparansi, dan masalah terkait AI. Toolkit AI Verify menarik minat perusahaan seperti IBM dan Dell ketika diluncurkan pada tahun 2022. Toolkit ini, kini tersedia untuk semua perusahaan, membantu memeriksa kualitas algoritme AI mereka berdasarkan prinsip-prinsip yang digariskan oleh yayasan, termasuk seberapa baik AI dapat menjelaskan proses pengambilan keputusan, demi transparansi.
Yayasan nirlaba ini berfokus pada AI generatif, yang mampu membuat teks, gambar, dan konten lainnya sesuai permintaan, dan telah menjadi mainstream sejak ChatGPT diluncurkan ke publik pada tahun 2022.
AI Generatif adalah landasan di mana aplikasi lain dibangun. Ketika semakin banyak perusahaan yang mengintegrasikan model AI generatif ke dalam layanan mereka, muncul pertanyaan tentang keamanan dan keandalan mesin yang tampaknya memiliki pemikiran tersendiri.
Enam risiko dalam AI disorot dalam laporan yang dibuat oleh IMDA dan perusahaan perangkat lunak AI yang didukung Temasek, Aicadium. Hal ini mencakup kesalahan yang disebabkan oleh AI, seperti jawaban salah yang tampak meyakinkan atau jawaban salah terhadap pertanyaan medis. Laporan tersebut juga menyebutkan bagaimana ChatGPT mengarang skandal pelecehan seksual dan menuduh seorang profesor hukum, yang tidak dapat dimintai bantuan oleh siapa pun untuk membersihkan namanya.
Model AI juga bisa menjadi bias jika kumpulan data pelatihannya tidak tepat. Saat diminta untuk membuat gambar “orang Amerika”, pembuat gambar biasanya akan mengilustrasikan kulit cerah. Individu dengan pakaian compang-camping dan peralatan primitif tercipta ketika ditanya dengan “pekerja Afrika”, tambah laporan itu.
AI generatif juga dapat digunakan oleh penipu yang tidak memiliki keterampilan teknis untuk menghasilkan kode berbahaya, meluncurkan serangan dunia maya atau kampanye berita palsu, dan meniru identitas orang lain dengan menghasilkan gambar yang nyata.
Masalah hak cipta dalam pembuatan gambar, konten beracun, dan privasi juga telah ditandai sebagai risiko utama AI generatif.
Untuk mengatasi hal ini, model AI harus akuntabel, dengan opsi tindakan korektif jika konten berbahaya dihasilkan. Mereka juga harus memahami dengan jelas jenis kumpulan data pelatihan yang digunakan, demikian rekomendasi laporan tersebut.
Ibu Teo, yang juga menjabat sebagai Menteri Dalam Negeri Kedua, mengatakan dalam pidato pembukaannya bahwa industri harus secara aktif mengarahkan AI ke arah penggunaan yang bermanfaat dan menjauhi penggunaan yang merugikan.
“Ini adalah inti dari cara Singapura berpikir tentang AI,” katanya kepada ratusan profesional teknologi. “Dengan melakukan hal ini, kami berharap menjadikan Singapura tempat yang luar biasa untuk bakat, ide, dan eksperimen.”
Ia memberikan contoh penggunaan AI dalam pelayanan publik, termasuk bagaimana AI membantu memproses masukan dari masyarakat dan bagaimana AI membantu Singapura bersiap menghadapi populasi penuaan dengan meningkatkan diagnosis klinis dan kesejahteraan pasien.
Alat pendeteksi phishing juga memindai 120.000 situs web setiap hari untuk menghapus situs penipuan yang digunakan dalam penipuan. “Tanpa AI seperti itu di gudang senjata mereka, aparat penegak hukum tidak akan bisa fokus mencegah penipuan atau memulihkan aset korban,” katanya.
“Keinginan yang kuat terhadap keamanan AI tidak harus berarti menjadi penghalang menuju inovasi dan adopsi,” kata Ibu Teo, seraya menambahkan bahwa pagar pembatas diperlukan untuk memastikan penggunaan AI yang aman dan bertanggung jawab.
Pengetahuan yang dibagikan oleh yayasan ini akan membantu menjelaskan bagaimana model AI harus diuji sebelum dipublikasikan, kata Elham Tabassi, kepala staf Laboratorium Teknologi Informasi di Institut Standar dan Teknologi Nasional, dalam diskusi panel di konferensi tersebut. dikatakan.
Dia berkata: “Salah satu kebutuhan mendesak adalah memiliki panduan tentang cara memverifikasi dan memvalidasi model-model ini, dan memiliki mekanisme transparansi dan dokumentasi yang tepat tentang verifikasi yang telah dilakukan.”
Dengan membuka diskusi tentang prinsip-prinsip panduan AI kepada lebih banyak pihak, yayasan ini membantu memastikan keterwakilan yang lebih baik, kata kepala arsitek praktik AI etis di perusahaan perangkat lunak Salesforce, Ms Kathy Baxter.
“Ini bukan sekedar memilih segelintir individu yang sama untuk mengambil keputusan. Namun kami bersifat inklusif dari data yang kami ambil serta cara kami mengevaluasi apakah model tersebut berhasil memenuhi nilai-nilai tersebut.”