Apabila OpenAI mengeluarkan ChatGPT kepada orang ramai pada 30 November 2022, ia dengan cepat mendapat populariti sebagai bot sembang AI yang mampu menjawab pertanyaan dan menyediakan maklumat berdasarkan pelbagai set data. Walau bagaimanapun, pakar telah menimbulkan kebimbangan mengenai ketepatan dan kemungkinan penyalahgunaannya.
Pelajar telah ditangkap memplagiat kerja kursus menggunakan ChatGPT, menonjolkan keperluan untuk mengesahkan set data untuk mengelakkan penyebaran maklumat salah. Suruhanjaya Perdagangan Persekutuan AS (FTC) malah sedang menyiasat OpenAI berhubung pengendalian maklumat peribadi dan data yang digunakan untuk mencipta model bahasa.
Malangnya, dengan sebarang inovasi teknologi, terdapat risiko penyalahgunaan. Kini, alat bernama WormGPT telah muncul di pasaran untuk tujuan berniat jahat. Penyelidik dari firma keselamatan siber SlashNext mendapati WormGPT dipromosikan untuk dijual di forum penggodam. Penciptanya mendakwa bahawa ia adalah alternatif yang tidak beretika kepada ChatGPT, membolehkan pengguna terlibat dalam aktiviti yang menyalahi undang-undang dan dengan mudah menjual eksploitasi mereka dalam talian.
WormGPT ialah modul AI berdasarkan model bahasa GPTJ. Ia didakwa dilatih dengan set data yang tidak didedahkan, berpotensi termasuk maklumat berkaitan perisian hasad. Ini menimbulkan kebimbangan bahawa ia boleh menjana kod berniat jahat atau e-mel pancingan data yang meyakinkan.
Tidak seperti ChatGPT, WormGPT tidak mempunyai sempadan atau batasan etika. Walaupun ChatGPT mempunyai peraturan untuk mencegah penggunaan yang tidak beretika, pengguna terus mencari cara untuk memintas sekatan ini. Para penyelidik dari SlashNext dapat menggunakan WormGPT untuk menjana e-mel persuasif yang direka untuk menekan pengurus akaun yang tidak curiga supaya membayar invois palsu.
Menurut maklumat yang dikongsi di saluran Telegram yang dikaitkan dengan WormGPT, pembangun merancang untuk mencipta model langganan untuk akses, dengan harga antara $60 hingga $700. Didakwa bahawa WormGPT sudah mempunyai lebih daripada 1,500 pengguna.
Walau bagaimanapun, WormGPT hanyalah permulaan. Apabila model bahasa semula jadi seperti ini menjadi lebih maju, penjenayah siber akan mencari cara baharu untuk mengeksploitasinya. Europol memberi amaran dalam laporan bahawa pelaku jenayah boleh menggunakan model bahasa yang besar untuk memudahkan tindakan berbahaya, mewujudkan cabaran bagi penguatkuasaan undang-undang.
Kesan potensi WormGPT dan alat serupa melangkaui penipuan mudah. Dengan bantuan model bahasa ini, pancingan data asas dan penipuan e-mel perniagaan (BEC) boleh menjadi operasi canggih dengan kemungkinan kejayaan yang lebih tinggi. Mengesan serangan sedemikian mungkin menjadi semakin sukar kerana model bahasa boleh menghasilkan e-mel palsu yang meyakinkan yang diperibadikan kepada penerima, menghapuskan penunjuk biasa percubaan pancingan data seperti kesilapan ejaan dan isu tatabahasa.
Perniagaan dan organisasi perlu berwaspada dan melatih kakitangan mereka untuk mengenali mesej yang mencurigakan. Selain itu, undang-undang perlindungan data sedia ada masih digunakan untuk alatan AI, seperti yang diserlahkan oleh Pejabat Pesuruhjaya Maklumat UK (ICO).
Adalah penting untuk memantau pembangunan dan penggunaan alat chatbot AI ini. Walaupun model bahasa semula jadi boleh menawarkan faedah yang luar biasa, ia juga memberikan risiko baharu yang mesti ditangani.