4 Mei 2023
SEOUL – Samsung Electronics telah bergabung dengan perusahaan teknologi lainnya dalam melarang penggunaan ChatGPT dan chatbot bertenaga AI lainnya oleh karyawannya, setelah menemukan kebocoran kode internal sensitif oleh para insinyurnya.
Dengan mengambil langkah-langkah untuk melarang akses terhadap alat AI generatif pada PC, tablet, dan ponsel milik perusahaan, Samsung juga dilaporkan membuat alat layanannya sendiri untuk mendukung penerjemahan dan peringkasan dokumen, serta pengembangan perangkat lunak.
Raksasa teknologi itu mengkonfirmasi pada hari Rabu bahwa mereka mengeluarkan memo minggu lalu yang melarang penggunaan alat AI generatif kepada staf di divisi Device eXperience yang bertanggung jawab atas perangkat konsumen dan perangkat seluler.
“Penggunaan alat AI generatif pada komputer perusahaan akan dilarang sementara mulai tanggal 1 Mei,” bunyi catatan tersebut, yang juga meminta karyawan untuk tidak memposting apa pun yang berkaitan dengan perusahaan, diri mereka sendiri, atau karyawan lain di AI yang mengunggah chatbots saat menggunakan perangkat pribadi mereka. perangkat.
“Kami meminta Anda mematuhi dengan cermat pedoman keamanan kami dan kegagalan untuk melakukannya dapat mengakibatkan pelanggaran atau kompromi informasi perusahaan, yang mengakibatkan tindakan disipliner hingga dan termasuk pemutusan hubungan kerja,” tambah Samsung.
Sebelumnya pada bulan April, divisi Solusi Perangkat perusahaan yang mengawasi bisnis semikonduktornya menemukan tiga kasus penyalahgunaan di mana para insinyurnya mengunggah informasi sensitif perusahaan, termasuk notulensi rapat dan kode sumber, ke ChatGPT untuk bekerja.
Meskipun tidak jelas apakah informasi sensitif tersebut bocor ke pengguna chatbot lainnya, segera setelah kejadian tersebut, perusahaan mengeluarkan pemberitahuan kepada staf divisi untuk tidak menggunakan alat AI generatif dalam bekerja.
Menyadari bahwa staf menggunakan chatbot AI eksternal untuk meningkatkan efisiensi pekerjaan mereka, Samsung mengatakan pihaknya sedang mengembangkan alat AI yang optimal untuk digunakan staf dalam penerjemahan, ringkasan dokumen, dan pengembangan kode sumber.
Ketakutan bahwa ChatGPT dan chatbot serupa lainnya yang dioperasikan oleh perusahaan seperti Microsoft dan Google akan membocorkan informasi sensitif perusahaan kepada publik telah mendorong banyak perusahaan untuk melarang penggunaan alat AI.
Perusahaan asal Korea Selatan, SK hynix dan Posco juga telah melarang penggunaan layanan AI di perusahaannya. Amazon telah mengeluarkan peringatan serupa kepada karyawannya dan beberapa bank besar di AS, termasuk JPMorgan Chase, Bank of America dan Citigroup, juga telah menerapkan tindakan serupa.
Dalam survei yang dilakukan Samsung terhadap staf divisi DX bulan lalu, 65 persen responden mengatakan mereka yakin risiko keamanan dapat terjadi jika mereka menggunakan ChatGPT untuk bekerja.
ChatGPT, dalam mode defaultnya, menyimpan riwayat percakapan pengguna, dan masukannya digunakan untuk meningkatkan atau “melatih” AI dan menggunakan data yang disimpan untuk menghasilkan respons terhadap pertanyaan yang dibuat oleh pengguna lain.
Menanggapi kekhawatiran tersebut, OpenAI, perusahaan yang mengembangkan ChatGPT, bulan lalu menambahkan mode “penyamaran” yang memungkinkan pengguna memblokir obrolan yang digunakan untuk pelatihan.
Perusahaan lain telah menggunakan alat AI generatif untuk pekerjaan mereka, meskipun ada masalah keamanan. Goldman Sachs, yang membatasi karyawannya untuk menggunakan ChatGPT di tempat kerja, mengatakan bahwa pengembang perangkat lunaknya masih menggunakan alat AI generatif untuk menulis dan menguji kode, meskipun tidak mengungkapkan layanan mana yang mereka gunakan.
CEO IBM Arvind Crishna juga mengatakan dalam sebuah wawancara baru-baru ini bahwa perusahaannya akan membekukan perekrutan pekerjaan yang dapat digantikan dengan alat AI di tahun-tahun mendatang.