26 April 2023
TOKYO – ChatGPT dan alat AI generatif lainnya menghadirkan ancaman baru terhadap ruang informasi.
“Risiko Utama untuk 2023” yang diterbitkan oleh firma riset AS, Eurasia Group, yang dirilis pada bulan Januari, menempatkan “senjata gangguan massal” teknologi di peringkat ketiga, di belakang pemerintahan Tiongkok di bawah Xi Jinping di peringkat kedua dan Rusia di peringkat pertama.
Laporan tersebut menyatakan bahwa “Disinformasi akan berkembang, dan kepercayaan – yang merupakan landasan kohesi sosial, perdagangan, dan demokrasi yang sudah lemah – akan semakin terkikis.”
Bahkan OpenAI, startup Amerika yang mengembangkan ChatGPT, telah menyatakan kekhawatirannya akan menghasilkan informasi palsu.
OpenAI dan institusi lain merilis laporan pada bulan Januari yang menyatakan, “Tidak ada solusi jitu untuk mengurangi risiko disinformasi yang disebabkan oleh AI,” dan bahwa “Lembaga dan koordinasi baru (seperti kerja sama antara penyedia AI dan platform media sosial) diperlukan untuk secara kolektif merespons ancaman operasi pengaruh (yang didukung AI).
Fakta bahwa AI generatif memudahkan siapa pun membuat informasi yang salah telah menimbulkan kekhawatiran.
Masalah misinformasi semacam ini telah muncul di Jepang. Sebuah tweet yang diposting pada tanggal 26 September ketika topan menyebabkan kerusakan akibat hujan lebat di Jepang tengah menampilkan gambar bangunan di bawah air dan keterangan: “Ini adalah gambar kerusakan akibat banjir di Prefektur Shizuoka yang ditangkap oleh drone. Sungguh memalukan, serius.” “
“Ini mengerikan” dan “Kami perlu segera membantu” adalah beberapa tanggapan terhadap tweet tersebut, yang menjadi viral.
Tapi gambar itu palsu dan dibuat untuk “bersenang-senang”, kata poster itu kepada The Yomiuri Shimbun.
Poster tersebut menghasilkan gambar yang ditampilkan dalam tweet dengan mengetikkan perintah seperti “banjir” dan “Shizuoka” dalam bahasa Inggris ke dalam alat gratis yang dikembangkan oleh perusahaan AI yang berbasis di Inggris.
Setelah berita mengenai gambar palsu tersebut muncul, Menteri Kabinet Hirokazu Matsuno mengatakan pada konferensi pers: “Penting untuk mencegah kebingungan yang disebabkan oleh rumor. Kami mengimbau masyarakat mewaspadai informasi yang tidak berdasarkan fakta.”
Disinformasi yang dihasilkan oleh AI juga telah disalahgunakan untuk memanipulasi opini publik. Di tengah invasi Rusia ke Ukraina, video palsu Presiden Ukraina Volodymyr Zelenskyy yang menyerukan warganya untuk menyerah muncul secara online.
“Tidak ada keraguan bahwa disinformasi akan meningkat secara eksponensial di masa depan,” kata Shinichi Yamaguchi, profesor ekonometrik di Universitas Internasional Jepang. “Ada kemungkinan sistem yang ada tidak mampu mengatasi situasi tersebut, yang dapat menyebabkan kekacauan di masyarakat.”
Layanan seperti ChatGPT sering kali menyajikan informasi yang tidak akurat atau bias dalam bidang subjek yang basis pengetahuan sistem AI-nya terbatas.
Kunihiro Ota, wakil presiden eksekutif Universitas Tokyo, mengatakan menggunakan ChatGPT adalah “seperti berbicara dengan orang mahatahu yang pandai berbicara,” dalam makalah berjudul “Generative AI” yang diterbitkan pada tanggal 3 April dan diposting di situs web universitas.
Teks yang dihasilkan oleh sistem seperti itu disusun secara alami sehingga sulit untuk menemukan informasi yang salah.
Jika ChatGPT tersebar luas dan pengguna membagikan informasi yang salah tanpa memeriksa keakuratannya, masyarakat dapat dibanjiri informasi yang salah.
Dibutuhkan teknologi yang dapat membedakan informasi yang dihasilkan AI dengan informasi yang dihasilkan manusia.
Sebuah tim peneliti dari Universitas Tokyo menarik perhatian pada konferensi internasional pada bulan Juni setelah mempresentasikan teknologi yang dapat mendeteksi video yang dihasilkan AI dengan akurasi 70%-90%.
Ini meningkatkan akurasi deteksi dengan memproses gambar yang dihasilkan dalam volume besar yang sedikit berbeda dari gambar asli.
“Selain tindakan pencegahan yang dipimpin oleh pengembang seperti pemberian watermarking pada informasi yang dihasilkan oleh AI, platform internet harus menentukan apakah konten yang mereka tawarkan adalah hasil dari AI dan mengatasi penyalahgunaan,” kata Prof. Kazuhiro Taira dari Universitas JF Oberlin berkata.
Literasi komputer di kalangan pengguna layanan tersebut juga penting.
Kazutoshi Sasahara, seorang profesor ilmu sosial komputasi di Institut Teknologi Tokyo, mengatakan: “Tanpa memeriksa konten secara aktif, pengguna akan disesatkan. Literasi (komputer) di era ChatGPT diperlukan untuk memahami sifat pemahaman informasi dihasilkan oleh AI.”