BOSTON – AI menjadi lebih umum dalam situasi sehari-hari, namun masih ada ketidakpercayaan. Tantangannya adalah mengatasi rintangan itu.
Saat Anda memindai berita utama di aplikasi berita favorit Anda setiap pagi, pernahkah Anda berpikir siapa – atau apa – yang menulis berita tersebut?
Asumsinya adalah ada orang yang melakukan pekerjaan tersebut. Tapi mungkin juga ada algoritma yang menulisnya. Kecerdasan buatan mampu menghasilkan teks, gambar, dan audio dengan sedikit atau tanpa campur tangan manusia. Misalnya, jaringan saraf yang disebut Generative Pre-trained Transformer 3 (GPT-3) mampu menghasilkan teks secara virtual – cerita fiksi, puisi, atau bahkan kode pemrograman. tidak bisa dibedakan dari teks yang ditulis oleh a orang.
Media besar seperti Washington Post, Waktu New YorkDan Forbes telah mengotomatiskan produksi berita menggunakan AI generatif – algoritma AI yang secara mandiri menghasilkan konten tekstual. Dengan kemajuan besar dalam pembelajaran mesin dan pemrosesan bahasa alami, perbedaan antara konten yang ditulis oleh manusia dan konten yang dihasilkan oleh jaringan saraf canggih seperti GPT-3 tidak sepertinya bahkan dalam domain yang bersifat humanistik seperti puisi.
Ketika kita lebih mengandalkan informasi yang dihasilkan AI dalam lingkungan sehari-hari, masalah kepercayaan menjadi lebih penting.
Penelitian terbaru telah menyelidikinya apakah masyarakat mempercayai berita yang dihasilkan oleh AI atau mempercayai diagnosis medis yang dihasilkan AI.
Mereka menemukan bahwa sebagian besar masyarakat skeptis terhadap AI. Sebuah mesin bisa menulis cerita akurat yang penuh fakta, namun pembaca tetap bisa menebak kebenarannya. Dan meskipun sebuah aplikasi dapat memberikan analisis medis yang lebih akurat dibandingkan manusia, pasien masih lebih cenderung mengikuti saran dokter (manusia).
Kesimpulannya adalah orang-orang lebih cenderung tidak mempercayai AI jika mereka melakukan kesalahan dibandingkan manusia secara individu. Ketika seorang reporter melakukan kesalahan, pembaca tidak mungkin berpikir bahwa semua reporter tidak dapat dipercaya. Bagaimanapun, semua orang melakukan kesalahan. Namun ketika AI membuat kesalahan, kita cenderung tidak mempercayai keseluruhan konsepnya. Orang bisa saja salah dan dimaafkan jika berbuat demikian. Tidak demikian halnya dengan mesin.
Konten AI umumnya tidak ditandai seperti itu. Jarang ada organisasi berita yang mencatat di byline-nya bahwa teks tersebut dihasilkan oleh suatu algoritma. Namun konten yang dihasilkan AI dapat menimbulkan bias atau penyalahgunaan, dan para ahli etika serta pembuat kebijakan telah menganjurkan agar organisasi melakukan hal tersebut mengungkapkan penggunaannya secara transparan. Jika persyaratan pengungkapan ditegakkan, berita utama di masa depan mungkin menyertakan AI sebagai pelapor.
Riset meneliti bagaimana publikasi penggunaan AI dalam pembuatan berita telah memengaruhi persepsi keakuratan berita. Hasilnya sangat mendukung akun keengganan AI: pengungkapan penggunaan AI menyebabkan masyarakat kurang mempercayai berita, efek negatif ini disebabkan oleh rendahnya kepercayaan terhadap reporter AI.
Outlet media tidak hanya dihadapkan pada tantangan untuk menarik perhatian pembaca di pasar digital yang sangat kompetitif, namun juga untuk mendapatkan kepercayaan mereka.
Hal ini berlaku bagi organisasi mana pun yang menggunakan teknologi digital untuk memberikan informasi kepada pelanggannya, baik itu lembaga regulator, bisnis, atau akademis. Faktanya, kuatnya dampak negatif AI dalam penelitian menunjukkan hal tersebut Keengganan AI berlaku untuk domain lain yang menggunakan teks yang dihasilkan AI.
AI adalah sebuah alat. Memang perlu ada pengawasan dan regulasi, namun hal ini juga berpotensi memberikan banyak manfaat.
AI dapat mendemokratisasi layanan kesehatan, misalnya dengan membuat aplikasi untuk penilaian risiko kanker kulit. Orang-orang yang tidak mampu membayar dokter kulit, atau yang tidak memiliki akses terhadap jenis perawatan tersebut, mungkin akan menyadari adanya tanda bahaya utama ini – pergi lihat tahi lalat ini.
AI mempunyai potensi untuk memberikan hasil yang baik bagi orang-orang yang sebelumnya tidak dapat mengaksesnya. Jadi pertanyaannya adalah, jika AI mempunyai potensi untuk digunakan untuk tujuan-tujuan positif, bagaimana kita dapat memahami persepsi masyarakat terhadap AI dan bagaimana kita dapat mendorong penerapannya?
Jika dipaksa untuk mengungkapkan konten yang dihasilkan AI, apa yang dapat dilakukan organisasi untuk menjaga kepercayaan terhadap informasi yang dikomunikasikannya? Jawabannya masih belum jelas, namun harapannya adalah bahwa temuan saat ini akan meningkatkan kesadaran akan pengaruh pengungkapan konten yang dihasilkan AI terhadap persepsi keakuratan dan kepercayaan serta mendorong penelitian lebih lanjut mengenai topik ini.
Ketika AI berperan sebagai asisten bagi seseorang yang memegang hak veto atau tetap menjadi pengambil keputusan utama, orang-orang cenderung akan baik-baik saja jika AI melakukan beberapa hal selama keputusan terakhir dilakukan oleh manusia.
Chiara Longoni adalah ilmuwan perilaku dan Asisten Profesor Pemasaran di Questrom School of Business Universitas Boston. Dia melakukan penelitian interdisipliner mengenai respons psikologis terhadap kecerdasan buatan pada layanan kesehatan, sistem pemberi rekomendasi, pembuatan konten otomatis, dan layanan pemerintah.