AI generatif menjanjikan masa depan di mana Anda tidak perlu lagi menjadi penulis terampil untuk menyusun cerita atau insinyur perangkat lunak terlatih untuk membuat kode. Namun, ada sisi gelap dari demokratisasi ini: AI memungkinkan orang-orang dengan sedikit pengetahuan teknologi menjadi penjahat dunia maya.
Saya seorang peneliti keamanan siber yang memantau darknet — area gelap Internet tempat orang dapat membeli barang-barang ilegal seperti senjata, narkoba, dan pornografi anak. Baru-baru ini, saya melihat tren yang mengkhawatirkan: Orang-orang menjual alat peretasan yang semakin canggih dan digerakkan oleh AI yang berpotensi menyebabkan kerusakan besar.
Pemula dengan sedikit pengalaman hacking kini dapat menggunakan konten phishing yang dihasilkan AI, malware, dan lainnya untuk menargetkan segala hal mulai dari rekening bank perorangan hingga pembangkit listrik. Akses yang lebih mudah ke alat hacking sangat berbahayakarena semakin banyak perangkat dan sistem fisik, mulai dari mobil hingga sikat gigi hingga jaringan listrik, yang terhubung ke Internet dan rentan terhadap serangan. “Flipper Zero,” sebuah perangkat kecil siapa pun dapat menggunakannya untuk meretas lampu lalu lintas, merupakan contoh awal ancaman yang dapat ditimbulkan oleh peretas amatir terhadap sistem fisik.
Demokratisasi AI, termasuk melalui platform sumber terbuka, memiliki manfaat besar. Ketika siapa pun dapat bereksperimen dengan teknologi, hal itu memungkinkan kewirausahaan dan inovasi serta mencegah monopoli oleh perusahaan teknologi besar. Pada saat yang sama, model AI terbuka dapat di-bootstrap untuk tujuan jahat.
Daripada memenjarakan AI, kita dapat melawan dengan menggunakan peralatan keamanan siber AI yang canggih dan memperbarui strategi pertahanan kita agar dapat memantau komunitas peretas di darknet dengan lebih baik.
Perusahaan seperti Google, OpenAI dan Microsoft memasang pagar pembatas pada produk mereka untuk memastikan AI tidak digunakan untuk meretas, menghasilkan konten eksplisit, memandu pembuatan senjata, atau terlibat dalam perilaku ilegal lainnya. Namun, maraknya sumber daya peretasan, deepfake seksual, dan konten ilegal lainnya yang dibuat menggunakan AI menunjukkan bahwa pelaku kejahatan masih menemukan cara untuk menimbulkan kerugian.
Salah satu jalur yang digunakan peretas adalah membuat permintaan tidak langsung ke model bahasa besar seperti ChatGPT yang melewati pengamanan. Peretas dapat menyamarkan permintaan konten dengan cara yang tidak dikenali AI sebagai konten berbahaya, yang menyebabkan sistem menghasilkan materi phishing atau konten kekerasan. Atau, strategi yang dikenal sebagai “injeksi cepat” dapat mengelabui model bahasa besar agar membocorkan informasi dari pengguna chatbot lainnya.
Peretas juga dapat membangun chatbot alternatif menggunakan model AI sumber terbuka — seperti ChatGPT tetapi tanpa pembatas. FraudGPT dan WormGPT keahlian email phishing yang meyakinkan dan memberikan saran tentang teknik peretasan. Beberapa orang menggunakan model bahasa besar yang tidak akurat untuk menghasilkan pemalsuan mendalam pornografi anak. Ini baru permulaan. Satu peretasan forum Baru-baru ini saya meninjau poin-poin pada kelas model bahasa besar yang berkembang pesat yang secara eksplisit dirancang untuk menyebabkan kerugian.
Membuat program seperti FraudGPT dan WormGPT memerlukan pengetahuan teknis. Menggunakannya tidak. Peretas amatir, yang disebut “script kiddies,” dapat menjalankan skrip peretasan tanpa keterampilan teknis apa pun. Saya baru-baru ini menggunakan KelinciPutihNeoalat keamanan siber yang juga dapat bertindak sebagai alternatif WormGPT dan FraudGPT, untuk membantu saya menghentikan komputer Windows 11. Alat ini tidak hanya berfungsi dengan baik dalam membuat skrip, tetapi juga memberi saya petunjuk tentang cara menggunakannya.
Jika kita ingin orang-orang mampu beradaptasi dan bereksperimen dengan AI generatif, mereka pasti akan menggunakannya untuk hal baik dan buruk. Kita harus terus mengkaji regulasi untuk menghukum penyalahgunaan AI. Namun, pembatasan pada model AI sumber terbuka akan membatasi penggunaan yang kreatif dan bermanfaat, sementara peretas yang tidak peduli dengan hak kekayaan intelektual dan batasan akan terus mencari jalan keluar.
Senjata terbaik kita adalah melawan api dengan api dengan menggunakan AI sebagai alat keamanan siber yang defensif. Keamanan siber telah lama menjadi permainan pukul-pukul-tikus: Ancaman baru muncul, manusia memperbarui perangkat lunak untuk mengatasi ancaman tersebut, ancaman lain muncul, dan seterusnya. Kita sering mengandalkan peretas topi putih yang menyelidiki kerentanan satu per satu daripada pendekatan sistematis untuk menemukan kelemahan.
AI dapat membantu kita terus belajar dan menanggapi ancaman dengan kelincahan yang lebih tinggi. Salah satu kekuatan terbesarnya adalah pengenalan pola, yang dapat digunakan untuk mengotomatiskan pemantauan jaringan dan mengidentifikasi aktivitas yang berpotensi membahayakan dengan lebih mudah. AI dapat menyusun ancaman yang muncul dalam basis data dan menghasilkan ringkasan upaya serangan.
Kita telah melihat gelombang keamanan siber bertenaga AI. CloudFlare menggunakan AI untuk melacak AI lain dan memblokir bot agar tidak mengambil konten. Mandiant menggunakan AI untuk menyelidiki insiden keamanan siber. IBM terapkan AI untuk mempercepat deteksi dan mitigasi ancaman.
Saat perusahaan mengembangkan alat keamanan AI, kita harus terus memantau komunitas peretas dan “web gelap” untuk mengawasi malware terbaru yang ditawarkan dan membuat perbaikan proaktif. Salah satu manfaat sumber daya yang ditujukan untuk “anak-anak yang suka menulis naskah” adalah bahwa sumber daya tersebut ditawarkan di tempat-tempat yang terlihat oleh amatir, yang biasanya juga terlihat oleh peneliti. Banyak dari komunitas ini beroperasi dalam bahasa selain bahasa Inggris. Untuk memastikan keamanan siber AI dapat beradaptasi dengan ancaman global, kita harus berinvestasi lebih banyak dalam model bahasa besar multibahasa. Saat ini, sumber daya yang tidak proporsional digunakan untuk mengembangkan model bahasa Inggris.
Itu Gangguan CloudStrike awal tahun ini mengingatkan kita akan rapuhnya infrastruktur siber global. Satu pembaruan yang buruk dari perusahaan dengan niat baik sudah cukup untuk menyebabkan kerugian miliaran dolar, menghentikan perjalanan udara, dan menghentikan layanan darurat 911. Sekarang bayangkan alat peretasan AI di tangan siapa pun di seluruh dunia yang ingin menyebabkan kerusakan — dan di era produk dan sistem yang terhubung dengan Internet di mana lebih banyak barang yang kita miliki sekarang berisi chip.
Kita tidak boleh menutup akses ke AI generatif dan semua hal luar biasa yang dapat dilakukannya. Namun, kita harus menggunakan AI secara strategis agar tetap selangkah lebih maju dari ancaman yang tak terelakkan yang akan ditimbulkannya.
Victor Benjamin adalah asisten profesor sistem informasi diSekolah Bisnis WP Carey di Universitas Negeri Arizona.