Dalam lanskap keamanan siber yang terus berkembang, kemunculan large language models (LLM) telah memperkenalkan tantangan dan peluang baru. Penelitian menunjukkan bahwa LLM yang canggih, seperti GPT-4, kini memiliki kemampuan untuk melakukan serangan siber canggih secara otonom, termasuk ekstraksi skema basis data secara blind dan SQL injection, tanpa memerlukan pengetahuan sebelumnya tentang kerentanannya atau umpan balik manusia. Dalam kasus lain, para peneliti mengembangkan alat AI yang dapat secara otonom menemukan dan mengeksploitasi kerentanannya, dengan tingkat keberhasilan 53%. Hal ini menimbulkan kekhawatiran besar tentang bagaimana penyerang, baik yang menggunakan manusia maupun AI, dapat memanfaatkan alat ini untuk melampaui pertahanan tradisional.
Meskipun penyerang manusia terlibat, alat AI secara drastis menurunkan hambatan untuk meluncurkan serangan canggih. Dengan teknik seperti jailbreaking atau query yang dirancang dengan hati-hati, bahkan penyerang yang tidak terampil sekalipun dapat menggunakan LLM untuk menghasilkan kode berbahaya, mengotomatiskan langkah-langkah serangan, atau membuat skrip phishing. Dalam beberapa kasus, LLM mungkin tanpa sengaja memfasilitasi pengiriman muatan berbahaya atau menyarankan kerentanannya yang dapat dieksploitasi. Demokratisasi pengetahuan tentang peretasan ini berarti bahwa serangan siber yang kompleks, yang dulu hanya bisa dilakukan oleh musuh terlatih, kini dapat diakses oleh lebih banyak penyerang. Kemampuan AI untuk belajar dari interaksi sebelumnya dan menyesuaikan responsnya membuat pertahanan semakin sulit.
Realitas Serangan yang Dilakukan oleh LLM
Kita sedang menyaksikan secara langsung munculnya serangan yang didorong oleh AI. Dari SQL injections hingga kebocoran data, serangan yang digerakkan oleh AI semakin sering terjadi. Sifat serangan ini sangat mengkhawatirkan karena LLM dapat belajar dan beradaptasi dengan cepat, yang menjadikan mekanisme pertahanan tradisional semakin kurang efektif.
Data kami melacak alat AI seperti ChatGPT, Anthropic Claude, Google Gemini, dan lainnya. Setiap klien web modern ini dikonfirmasi dengan membandingkan metadata, alamat IP yang dikenal, dan perilaku untuk memastikan bahwa ini memang permintaan yang berasal dari LLM.
Alat AI dan Teknik yang Digunakan

Seperti yang disebutkan sebelumnya, salah satu metode signifikan yang digunakan penyerang untuk melakukan serangan melalui LLM adalah dengan mengeksploitasi kemampuan penelusuran LLM seperti ChatGPT melalui query yang dirancang dengan baik. Misalnya, seorang penyerang dapat memanfaatkan fungsi browser.open_url dengan menyediakan URL dan parameter dengan konten berbahaya. Meskipun model tersebut dapat mengenali konten sebagai serangan dan memberikan peringatan kepada pengguna, LLM masih dapat mengirim permintaan ke aplikasi target, yang secara efektif menjalankan serangan tersebut.

Selain itu, berbagai teknik jailbreak memungkinkan penyerang melewati pembatasan dan menggunakan LLM untuk tujuan jahat. Teknik ini bisa sederhana namun sangat efektif, memungkinkan penyerang untuk memanipulasi LLM agar melakukan tindakan yang tidak sah.
Secara rata-rata, kami melihat hampir 700.000 percakapan SQL injection, serangan otomatis, Remote Code Execution (RCE), dan Cross-Site Scripting (XSS) yang dilakukan oleh alat AI setiap harinya. Meskipun kami tidak bisa memastikan apakah serangan-serangan ini datang secara otonom dari alat AI atau oleh agen manusia, pelanggan kami tetap dilindungi dari kedua jenis serangan tersebut.

Serangan Berdasarkan Bulan
Serangan yang berasal dari ChatGPT terutama terdiri dari upaya kebocoran data yang menargetkan konfigurasi sistem, konfigurasi basis data, dan file cadangan yang mungkin mengandung informasi sensitif seperti kunci, informasi tentang sistem internal, dan lainnya. Untuk melawan serangan jenis ini, pastikan untuk membatasi akses file dan menerapkan kontrol akses yang kuat.

Serangan Berdasarkan ChatGPT
Serangan berbasis LLM ini sangat luas, menyerang situs di lebih dari 100 negara. Serangan ini terutama menargetkan situs-situs berbasis AS dan Kanada yang bergerak di sektor Ritel, Bisnis, dan Perjalanan.
Serangan yang terjadi bervariasi, dan kami telah melihat berbagai muatan yang berbeda. Pada contoh berikut, muatan menggunakan fungsi ‘eval’ untuk mengeksekusi JavaScript yang secara dinamis membuat elemen dan memuat skrip eksternal dari http://stats.starteceive.tk/sc.js, yang berpotensi untuk melakukan aksi berbahaya. Ini adalah contoh dari serangan cross-site scripting (XSS), di mana kode berbahaya disuntikkan ke dalam halaman web untuk merusak keamanannya.

Serangan Lainnya dan Proyeksi Masa Depan
Serangan lainnya menargetkan kerentanannya di Oracle WebLogic Server (CVE-2017-3248), yang memungkinkan penyerang jarak jauh untuk mengeksekusi kode sembarangan melalui mesin JavaScript Nashorn. Skrip ini digunakan untuk menghentikan proses yang berjalan di /bin /sh, yang berpotensi mengganggu server. Eksploitasi yang berhasil bisa menyebabkan remote code execution (RCE) dan memberi penyerang kendali penuh atas sistem.
Melihat ke Depan
Seiring LLM menjadi lebih maju, lanskap keamanan siber pasti akan menghadapi tantangan baru yang lebih kompleks. Kunci untuk tetap di depan ancaman ini terletak pada inovasi berkelanjutan dan adaptasi. Produk-produk Imperva melawan serangan dari ChatGPT dan LLM lainnya, dan kami terus melakukan penelitian dan pengembangan untuk memastikan kami tetap berada di garis depan dalam masalah ini. Produk Imperva siap untuk melindungi aset Anda dari peretasan yang dilakukan oleh LLM, dan kami berkomitmen untuk memimpin dalam mengembangkan solusi keamanan canggih yang dapat mengantisipasi dan menetralkan ancaman terbaru yang ditimbulkan oleh LLM.
Meskipun meningkatnya serangan yang dilakukan oleh LLM mewakili pergeseran signifikan dalam domain keamanan siber, ini juga memberikan kesempatan untuk mengembangkan mekanisme pertahanan yang lebih tahan lama dan canggih. Dengan tetap waspada dan proaktif, kita dapat memastikan bahwa kita siap untuk melawan taktik penyerang siber yang memanfaatkan teknologi LLM.
Tabel Perbandingan Jenis Serangan yang Dihadapi
| Jenis Serangan | Deskripsi | Solusi Imperva |
| SQL Injection | Serangan yang mengeksploitasi kerentanannya di input basis data untuk mengakses informasi sensitif. | Proteksi otomatis terhadap serangan SQL Injection menggunakan pengendalian akses dan deteksi anomali. |
| Remote Code Execution (RCE) | Serangan yang memungkinkan penyerang mengeksekusi kode sembarangan pada server target. | Pembaruan dan patch keamanan server untuk mengurangi celah keamanan. |
| Cross-Site Scripting (XSS) | Menyuntikkan kode JavaScript berbahaya ke dalam halaman web untuk mengeksploitasi pengguna. | Penggunaan firewall aplikasi web (WAF) untuk menyaring muatan berbahaya. |
| Data Leakage | Kebocoran informasi sensitif seperti kunci atau informasi internal perusahaan. | Pengamanan data dengan kontrol akses dan enkripsi data. |
| Zero-Day Vulnerabilities | Kerentanannya yang belum diketahui atau belum dipatch, yang dapat dimanfaatkan oleh penyerang. | Pembaruan proaktif dan penggunaan solusi keamanan untuk mengidentifikasi ancaman baru. |
Kesimpulan
Serangan yang digerakkan oleh LLM menjadi ancaman nyata dalam dunia keamanan siber, dengan potensi untuk merusak sistem yang tidak terjaga dengan baik. Namun, dengan mengadopsi solusi keamanan yang tepat seperti yang disediakan oleh Imperva, perusahaan dapat memitigasi risiko ini dan memastikan bahwa mereka tetap terlindungi dari ancaman yang berkembang seiring teknologi ini semakin maju.
