iaminkuwait.com, JAKARTA – Ingatkah saat virus komputer menjadi ancaman terbesar di Internet? Itu adalah masa-masa yang lebih sederhana. Saat ini, kita menghadapi ancaman digital yang jauh lebih berbahaya: bot media sosial yang didukung AI.
Penelitian yang dilakukan oleh para peneliti di Universitas Washington dan Universitas Xi’an Jiaotong menunjukkan potensi besar dan bahaya yang mengejutkan dari penggunaan model linguistik skala besar (LLM) seperti ChatGPT untuk mendeteksi dan membuat profil palsu ini.
Bot media sosial (akun otomatis yang dapat meniru perilaku manusia) telah lama menjadi duri bagi operator dan pengguna. Akun palsu ini dapat menyebarkan informasi yang salah, mengganggu pemilu, dan bahkan menyebarkan opini fanatik.
Hingga saat ini, perang melawan bot selalu menjadi permainan kucing dan tikus, dan para peneliti mengembangkan metode deteksi yang lebih baik hanya agar pembuat bot dapat menemukan cara baru untuk menghindarinya.
Tim peneliti yang dipimpin oleh Shangbin Feng memberikan gambaran tentang harapan dan kehati-hatian terhadap masa depan keberlanjutan sosial.
“Selalu ada pertarungan teknis antara operator bot dan peneliti yang berusaha menghentikan mereka. “Setiap kemajuan dalam deteksi bot sering kali diimbangi dengan peningkatan integrasi bot, jadi kami menjajaki peluang dan risiko model bahasa besar dalam masalah ini,” kata Feng, seperti dilansir Research Research, Sabtu (31/8/2024). .
Di sisi penemuan, para peneliti mengembangkan metode baru menggunakan LLM untuk menganalisis berbagai aspek akun pengguna, termasuk metadata (seperti jumlah pengikut dan usia akun), teks postingan, dan jaringan koneksi antar pengguna. Dengan menggabungkan beberapa aliran informasi ini, sistem berbasis LLM mereka mampu mengungguli metode deteksi bot yang ada dengan selisih yang mengesankan, hingga 9,1 persen lebih baik pada kumpulan data standar.
Namun, temuan penelitian tidak semuanya positif. Para peneliti juga melihat bagaimana LLM dapat digunakan oleh musuh, khususnya pengembang bot. Dengan menggunakan kemampuan pembuatan bahasa model AI ini, mereka dapat mengembangkan strategi untuk memanipulasi akun bot guna menghindari deteksi.
Strategi penghindaran pedoman LLM ini telah terbukti sangat efektif. Ketika diterapkan pada akun bot yang dikenal, mereka mampu mengurangi tingkat deteksi algoritma deteksi bot yang ada sebesar 29,6 persen. Manipulasi tersebut berkisar dari penulisan ulang teks secara halus yang dibuat oleh bot untuk membuatnya tampak lebih manusiawi hingga perubahan strategis yang membuat akun diikuti atau diabaikan oleh bot.
Mungkin yang paling meresahkan adalah kemampuan LLM untuk membuat bot yang tidak hanya gratis, tetapi juga benar-benar asli. Studi ini menunjukkan bahwa LLM dapat membuat profil pengguna dan postingan yang mencerminkan perilaku manusia secara mendalam, sehingga sangat sulit dibedakan dengan akun nyata.
Penggunaan kembali LLM potensial di bidang keberlanjutan media sosial menghadirkan tantangan bagi para praktisi, peneliti, dan pembuat kebijakan. Di satu sisi, alat AI canggih ini dapat merevolusi kemampuan kita dalam mendeteksi dan menghapus akun bot berbahaya. Di sisi lain, mereka berisiko menjadi “senjata” teknologi yang dapat memanipulasi wacana online.
“Menganalisis apakah pengguna adalah bot atau bukan jauh lebih rumit dari yang kita kira,” kata Feng.
Untuk itu, peneliti menekankan perlunya perbaikan terus-menerus pada metode deteksi bot, terutama metode yang dapat membatalkan teknik eliminasi LLM tingkat lanjut. Mereka juga menyerukan peningkatan transparansi platform media sosial dan kolaborasi antara peneliti, perusahaan teknologi, dan pembuat kebijakan untuk mengatasi tantangan yang muncul ini.