BRISBANE – Melihat masa depan mungkin sulit dipercaya, karena teknologi digital membuat perjuangan melawan misinformasi semakin sulit bagi raksasa media sosial.
Di sebuah video kasar, Presiden Ukraina Volodymyr Zelenskyy tampaknya menyuruh rakyatnya untuk meletakkan senjata dan menyerah kepada Rusia. Video tersebut – yang dengan cepat dibantah oleh Zelenskyy – adalah video palsu, tiruan digital yang dihasilkan oleh kecerdasan buatan (AI) untuk meniru suara dan ekspresi wajahnya.
Pemalsuan besar-besaran seperti ini hanyalah puncak dari apa yang mungkin akan menjadi gunung es yang jauh lebih besar. Saat ini sedang terjadi perlombaan penipuan digital, di mana model-model AI sedang dibuat agar dapat secara efektif menipu khalayak online, sementara model-model lain sedang dikembangkan untuk mendeteksi konten yang berpotensi menyesatkan atau menipu yang dihasilkan oleh model yang sama. Dengan meningkatnya kekhawatiran tentang plagiarisme teks AI, salah satu model, Groverdirancang untuk membedakan teks berita yang ditulis manusia dengan artikel yang dibuat oleh AI.
Seiring dengan maraknya penipuan dan misinformasi online, pelindung yang dibangun oleh platform untuk melawannya semakin terkikis. Sejak Elon Musk mengambil alih Twitter, dia melakukannya sampah departemen keamanan online platform dan sebagai hasilnya informasi yang salah sedang meningkat lagi.
Musk, seperti orang lain, sedang mencari solusi teknologi untuk memecahkan masalahnya. Dia sudah melakukannya memberi isyarat rencana untuk meningkatkan penggunaan AI untuk moderasi konten Twitter. Tapi ternyata tidak berkelanjutan atau terukur, dan kemungkinan besar hal ini bukanlah solusi terbaik. Peneliti Microsoft Tarleton Gillespie menyarankan: “alat otomatis paling baik digunakan untuk mengidentifikasi sebagian besar kasus, menyerahkan identifikasi yang kurang jelas atau lebih kontroversial kepada hakim manusia”.
Beberapa intervensi manusia masih ada dalam sistem pengambilan keputusan otomatis yang diterapkan oleh platform berita, namun apa yang muncul di feed berita sebagian besar didorong oleh algoritma. Alat serupa berfungsi sebagai alat moderasi yang penting untuk memblokir konten yang tidak pantas atau ilegal.
Masalah utamanya adalah ‘perbaikan’ teknologi tidaklah sempurna dan kesalahan mempunyai konsekuensi. Algoritma terkadang tidak dapat menangkap konten berbahaya cukup cepat dan dapat dimanipulasi untuk memperkuat informasi yang salah. Terkadang algoritme yang berlebihan juga dapat menghapus ucapan yang sah.
Selain falibilitasnya, ada pertanyaan inti tentang apakah algoritma ini membantu atau merugikan masyarakat. Teknologi ini dapat lebih melibatkan masyarakat dengan menyesuaikan berita agar sesuai dengan minat pembaca. Namun untuk melakukan hal ini, algoritme memasukkan banyak data pribadi, yang seringkali diperoleh tanpa pemahaman penuh dari pengguna.
Ada kebutuhan untuk mengetahui seluk-beluk cara kerja suatu algoritma – yaitu, untuk membuka ‘kotak hitam’.
Namun dalam banyak kasus, mengetahui apa yang ada di dalam sistem algoritmik masih membuat kita merasa tidak berdaya, terutama tanpa mengetahui data, perilaku pengguna, dan budaya apa yang mendukung sistem besar ini.
Salah satu cara peneliti dapat lebih memahami sistem otomatis adalah dengan mengamatinya dari sudut pandang pengguna, sebuah ide usul oleh peneliti Bernhard Rieder, dari Universitas Amsterdam, dan Jeanette Hofmann, dari Pusat Ilmu Sosial Berlin.
Peneliti Australia juga telah menerima seruan tersebut, meminta ilmuwan warga negara untuk menyumbangkan konten web yang dipersonalisasikan secara algoritmik dan menyelidiki bagaimana algoritma tersebut membentuk pencarian di internet dan bagaimana mereka iklan sasaran. Hasil awal menunjukkan bahwa personalisasi Google Penelusuran Web kurang mendalam dibandingkan yang kita perkirakan, sehingga menambahkan lebih banyak bukti pada ‘gelembung penyaring‘ mitos, bahwa kita ada di komunitas konten yang sangat dipersonalisasi. Sebaliknya, personalisasi penelusuran mungkin lebih disebabkan oleh cara orang menyusun kueri penelusuran online mereka.
Tahun lalu, beberapa model bahasa dan generasi media yang didukung AI memasuki arus utama. Model AI ‘mendasar’ ini dilatih pada ratusan juta titik data (seperti gambar dan kalimat). dapat disesuaikan untuk tugas-tugas tertentu. Misalnya, DALL-E 2 adalah alat yang dilatih pada jutaan gambar berlabel, menghubungkan gambar ke keterangan teksnya.
Model ini secara signifikan lebih besar dan lebih canggih dibandingkan model sebelumnya untuk tujuan pelabelan gambar otomatis, namun juga memungkinkan adaptasi terhadap tugas-tugas seperti pembuatan keterangan gambar otomatis dan bahkan mensintesis gambar baru dari perintah teks. Model-model ini telah banyak diterapkan dan digunakan secara kreatif, namun kekhawatiran mengenai hak cipta artis dan dampak lingkungannya masih tetap ada.
Kemampuan untuk membuat gambar atau teks yang tampak realistis juga menyebabkan hal ini khawatir dari para sarjana yang mendapat informasi yang salah – replikasi ini bisa meyakinkan, terutama seiring dengan kemajuan teknologi dan semakin banyak data yang dimasukkan ke dalam mesin. Platform harus cerdas dan memiliki pendekatan yang berbeda terhadap alat-alat yang semakin canggih ini agar tidak memicu perlombaan senjata penipuan digital yang didukung AI.
Daniel Angus adalah Profesor Komunikasi Digital di Fakultas Komunikasi, dan pemimpin program Komunikasi dan Budaya Komputasi di Pusat Penelitian Media Digital QUT.
Dia adalah Penyelidik Utama di Pusat Keunggulan ARC untuk Pengambilan Keputusan Otomatis dan Masyarakat, Proyek Penemuan ARC, Mengevaluasi Tantangan ‘Berita Palsu’ dan Misinformasi Lainnya, dan Menggunakan Visi Mesin untuk Menjelajahi Budaya Promosi Sehari-hari Instagram, dan Penghubung ARC Project, Pemuda Australia dan promosi alkohol di media sosial.