14 Juni 2023
NEW DELHI – Apakah kecerdasan buatan (AI) benar-benar “cerdas” dalam kreativitas dan pengambilan keputusan? Atau justru mencuri karya orang lain dan melanggengkan prasangka manusia yang sudah ada?
Pada bulan Januari ini, tiga artis mengajukan gugatan class action di Pengadilan Distrik California Utara terhadap pembuat gambar AI – Midjourney, Stable Diffusion, dan DreamUp. Mereka mengklaim bahwa perusahaan-perusahaan ini menggunakan karya seni mereka untuk menghasilkan karya seni baru – menggunakan database gambar yang tersedia untuk umum termasuk milik mereka yang disebut LAION-5B – meskipun para seniman tidak setuju karya seni berhak cipta mereka dimasukkan ke dalam database dan tidak diberi kompensasi atas penggunaan tersebut. karya mereka, dan pengaruhnya tidak diperhitungkan ketika gambar AI diproduksi menggunakan karya tersebut.
AI benar-benar menghilangkan miliaran pekerjaan yang dihasilkan oleh tenaga kerja manusia untuk “menghasilkan lapangan kerja baru.” Inilah sebabnya mengapa beberapa ahli sudah mempertanyakan apakah AI itu “buatan” atau “cerdas”.
Penulis teknis Evgeny Morozov berpendapat bahwa meskipun sistem AI awal sebagian besar berupa peraturan dan program, dan mungkin memiliki beberapa “keartifisialan”, model AI saat ini memanfaatkan kekuatannya sepenuhnya dari karya manusia nyata. Dibangun berdasarkan sejumlah besar pekerjaan manusia yang disimpan di pusat data raksasa yang haus energi, AI tidaklah “cerdas” sebagaimana kecerdasan manusia, karena AI tidak dapat membedakan berbagai hal tanpa pelatihan manusia yang ekstensif, seperti yang ditunjukkan oleh Kate Crawford dari Microsoft.
Bahkan dalam pengambilan keputusan, model AI dapat memiliki bias yang kuat, seperti yang dikonfirmasi oleh makalah tahun 2019 yang diterbitkan di Nature. Algoritme yang umum di rumah sakit Amerika secara sistematis mendiskriminasi orang kulit hitam. Studi ini menemukan bahwa rumah sakit biasanya memberi mereka skor risiko yang lebih rendah dibandingkan orang kulit putih. Secara otomatis, algoritme menganggap hal ini sebagai indikasi dan menempatkan orang kulit hitam pada kelompok risiko lebih rendah, apa pun kondisi medis yang ada. Dalam kasus lain, bot pengecat mengembalikan gambar steak salmon di dalam air ketika diminta menggambar salmon yang sedang berenang. Model AI tidak dapat membuat penilaian sederhana yang bahkan dapat dilakukan oleh seorang balita.
Meskipun tidak termasuk dalam kategori “cerdas”, perkembangan terkini, khususnya peluncuran ChatGPT pada bulan November lalu, telah menimbulkan kekhawatiran besar mengenai dampak AI terhadap masyarakat manusia. Pakar teknologi terkemuka menerbitkan surat terbuka yang menyerukan penghentian segera semua pengembangan AI selama enam bulan. Penandatangannya mencakup banyak nama besar dan kelas berat AI, termasuk Elon Musk dari Tesla, Emad Mostaque dari Stability AI, Sam Altman dari OpenAI, Demis Hassabis dari Google DeepMind, dan Kevin Scott dari Microsoft. Altman bahkan menyarankan pemerintah AS untuk mengeluarkan lisensi kepada perusahaan terkemuka (Apakah itu berarti hanya Perusahaan Teknologi Besar?) untuk melatih model AI.
Apakah seruan untuk segera berhenti ini datang dari kepedulian yang tulus terhadap kesejahteraan manusia? Ataukah ada motif komersial, seperti diutarakan Michael Bennett, mahasiswa PhD di Australian National University (ANU)? AI berpotensi menghasilkan kekayaan yang sangat besar bagi mereka yang mengendalikannya. Mari kita coba memahami premis panggilan tersebut.
ChatGPT bukanlah terobosan penelitian, ini adalah produk berdasarkan penelitian terbuka yang sudah berumur beberapa tahun. Satu-satunya perbedaan adalah bahwa teknologi tersebut tidak tersedia secara luas melalui antarmuka yang mudah digunakan. Pengusaha kecil akan segera mengembangkan model berbasis AI yang lebih baik dan efisien dengan biaya yang jauh lebih rendah, beberapa di antaranya sudah tersedia di GitHub, gudang populer untuk perangkat lunak non-komersial sumber terbuka. Hal ini mengkhawatirkan para perusahaan teknologi besar, yang dijelaskan melalui bocoran memo internal dari Google.
Memo panjang dari seorang peneliti Google berbunyi: “Orang tidak akan membayar untuk model terbatas ketika alternatif yang gratis dan tidak terbatas memiliki kualitas yang sebanding… Kami tidak memiliki parit.” Lisensi akan menjadi “semacam parit”, seperti yang dikatakan secara blak-blakan oleh CEO Stability AI, Emad Mostaque, sebuah parit yang menjadi jargon untuk mengamankan bisnis dari pesaing.
AI Now Institute, sebuah organisasi penelitian nirlaba yang menangani konsentrasi kekuatan di industri teknologi, menyoroti bahaya AI yang tidak diatur dalam laporannya pada bulan April 2023 karena ledakan AI akan membuat perusahaan-perusahaan teknologi besar menjadi lebih kuat. Model AI bergantung pada data dalam jumlah besar dan daya komputasi super cepat untuk memprosesnya, yang keduanya hanya mampu dilakukan oleh perusahaan teknologi besar. Tanpa akses terhadap sumber daya ini, tidak ada pengusaha atau peneliti yang dapat mengembangkan aplikasi AI yang berarti, seperti yang diuraikan dalam artikel Tinjauan Teknis MIT.
Ya, kita memerlukan peraturan untuk pengembangan AI, dan jeda jika perlu, tapi bukan karena alasan yang disebutkan dalam surat terbuka. Hal ini untuk memastikan bahwa teknologi AI tetap open source dan demokratis.
Alasan lain mengapa AI perlu diatur adalah cara platform media sosial menggunakannya untuk memicu bias gender dan polarisasi ekstrem, mempermainkan perpecahan sosial yang mengarah pada kekerasan yang tak terkatakan dalam skala besar (seperti di Myanmar dengan Facebook). Model AI akan memperkuat misinformasi yang disengaja (ketidakakuratan sederhana) dan disinformasi (informasi palsu) hanya karena model tersebut dilatih pada data tersebut untuk menghasilkan lebih banyak data (model efek kanibalisme). Model bahasa utama mungkin terus mengulangi informasi yang dibuat-buat dan salah karena fenomena yang disebut ‘halusinasi’ yang ditemukan oleh pengawas independen NewsGuard di beberapa portal berita online.
Disengaja atau tidak, semua hal ini bisa sangat berguna dalam memanipulasi opini publik atau menciptakan bias yang menguntungkan pihak yang berkuasa. Hal ini membuat regulasi AI semakin diperlukan. Untuk memastikan bahwa manfaat AI menjangkau semua orang, masyarakat harus selalu menjadi yang terdepan.
Dr Sayeed Ahmed adalah seorang insinyur konsultan dan CEO Bayside Analytix, sebuah organisasi konsultan strategi dan manajemen yang berfokus pada teknologi.