Para profesional keamanan siber Australia memperkirakan pelaku ancaman akan mengeksploitasi kecerdasan buatan untuk mendiversifikasi taktik dan meningkatkan volume serangan siber yang menargetkan organisasi pada tahun 2025, menurut perusahaan teknologi keamanan Infoblox.
Tahun lalu, tim siber di APAC menyaksikan tanda-tanda pertama dari hal ini AI digunakan untuk melakukan kejahatan seperti penipuan keuangansementara beberapa orang mengaitkan AI dengan a Serangan DDoS di sektor jasa keuangan di Australia.
Tahun ini, para pembela siber Australia memperkirakan AI akan digunakan dalam serangan siber generasi baru:
- Kloning AI: AI dapat digunakan untuk membuat suara audio sintetis untuk melakukan penipuan finansial.
- Pemalsuan AI: Meyakinkan video palsu dapat menarik korban untuk mengklik atau memberikan detailnya.
- Chatbot bertenaga AI: Chatbot AI dapat menjadi bagian dari kampanye phishing yang kompleks.
- Malware yang Ditingkatkan AI: Penjahat dapat menggunakan LLM untuk mengeluarkan kode malware yang telah di-remix.
- Pembobolan penjara AI: Pelaku ancaman akan menggunakan model AI “gelap” tanpa perlindungan.
Bart Lenaerts-Bergmans dari Infoblox mengatakan kepada para pembela HAM Australia dalam sebuah webinar bahwa mereka memperkirakan akan terjadi peningkatan frekuensi dan kecanggihan serangan karena semakin banyak aktor yang memiliki akses terhadap alat dan teknik kecerdasan buatan.
1. AI untuk kloning
Musuh dapat menggunakan alat AI generatif untuk membuat konten audio sintetis yang terdengar realistis. Proses kloning yang dapat dilakukan dengan cepat ini memanfaatkan data yang tersedia di domain publik, seperti wawancara audio, untuk melatih model AI dan menghasilkan suara kloning.
MELIHAT: Pemerintah Australia mengusulkan langkah-langkah keamanan AI yang wajib
Lenaerts-Bergmans mengatakan suara kloning mungkin hanya memiliki sedikit perbedaan intonasi atau ritme dibandingkan suara aslinya. Musuh dapat menggabungkan suara kloning dengan taktik lain, seperti domain email palsu, agar tampak sah dan memfasilitasi penipuan finansial.
2. Pemalsuan AI
Penjahat dapat menggunakan AI untuk membuat video deepfake yang realistis dari individu-individu terkenal, yang dapat mereka gunakan untuk memikat korban ke dalam penipuan mata uang kripto atau aktivitas jahat lainnya. Konten sintetis dapat digunakan untuk merekayasa sosial dan menipu korban dengan lebih efektif.
Infoblox mereferensikan video deepfake Elon Musk yang diunggah ke akun YouTube dengan jutaan pelanggan. Dengan menggunakan kode QR, banyak pemirsa diarahkan ke penipuan dan situs kripto berbahaya. YouTube membutuhkan waktu 12 jam untuk menghapus video tersebut.
3. Chatbot yang didukung AI
Musuh telah mulai menggunakan agen percakapan otomatis, atau chatbot kecerdasan buatan, untuk membangun kepercayaan dengan korban dan pada akhirnya menipu mereka. Tekniknya meniru cara a perusahaan dapat menggunakan AI untuk menggabungkan interaksi bertenaga manusia dengan chatbot AI melibatkan dan “mengubah” seseorang.
Contoh penipuan kripto melibatkan penyerang menggunakan SMS untuk menjalin hubungan sebelum memasukkan elemen chatbot AI untuk memajukan rencana mereka dan mendapatkan akses ke dompet kripto. Infoblox mencatat bahwa tanda-tanda peringatan penipuan ini mencakup nomor telepon yang mencurigakan dan pola bahasa yang dirancang dengan buruk sehingga mengulangi jawaban atau menggunakan bahasa yang tidak konsisten.
4. Malware yang disempurnakan dengan AI
Penjahat kini dapat menggunakan LLM untuk secara otomatis menulis ulang dan mengubah malware yang ada untuk melewati kontrol keamanan, sehingga menyulitkan pembela HAM untuk mendeteksi dan memitigasinya. Hal ini dapat terjadi beberapa kali hingga kode mencapai skor deteksi negatif.
MELIHAT: Keadaan pelanggaran data yang mengkhawatirkan di Australia pada tahun 2024
Misalnya, kerangka JavaScript yang digunakan dalam serangan unduhan drive-by dapat ditransmisikan ke LLM. Ini dapat digunakan untuk mengubah kode dengan mengganti nama variabel, menyisipkan kode, atau menghapus spasi untuk melewati tindakan deteksi keamanan umum.
5. Melakukan jailbreak pada AI
Para penjahatnya adalah menghindari perlindungan LLM tradisional sebagai ObrolanGPT salah satu Kopilot Microsoft untuk menghasilkan konten berbahaya sesuka hati. Disebut model AI yang “dibebaskan”, model tersebut sudah menyertakan model seperti FraudGPT, WormGPT, dan DarkBERT, yang tidak memiliki hambatan hukum atau etika.
Lenaerts-Bergmans menjelaskan bahwa penjahat dunia maya dapat menggunakan model AI ini untuk menghasilkan konten berbahaya sesuai permintaan, seperti membuat halaman phishing atau email yang meniru layanan sah. Beberapa tersedia di web gelap hanya dengan $100 per bulan.
Diperkirakan kemampuan deteksi dan respons menjadi kurang efektif
Lenaerts-Bergmans mengatakan ancaman AI bisa menyebabkan tim keamanan memiliki kesenjangan intelijendi mana indikator taktis yang ada seperti hash file bisa menjadi hanya sementara.
Dia mengatakan “kemampuan deteksi dan respons akan menjadi kurang efektif” seiring dengan diadopsinya alat kecerdasan buatan.
Infoblox mengatakan bahwa mendeteksi penjahat di tingkat DNS memungkinkan tim siber mengumpulkan intelijen pada tahap awal alur kerja penjahat siber, sehingga dapat menghentikan ancaman sebelum meningkat menjadi serangan aktif.