Ouyang Xin
General Manager of Security Products di Alibaba Cloud Intelligence
Pengalaman sebagai Senior Director, Threat Prevention And App-ID di Palo Alto Networks, Santa Clara AS dan pernah menjadi Manajer di Nevis Networks dan Security Research di Fortinet.
Serangan siber telah meningkat lebih dari dua kali lipat secara global dalam empat tahun terakhir, dari 818 per organisasi pada 2021 menjadi hampir 2.000 per organisasi tahun ini, menurut World Economic Forum (WEF).
Di Indonesia, Badan Siber dan Sandi Negara (BSSN) mencatat sebanyak 3,64 miliar upaya intrusi dan anomali trafik hanya dalam paruh pertama tahun 2025.
Deepfakes yang digerakkan oleh AI telah menjadi perhatian utama di Indonesia, dengan peningkatan konten sebesar 550 persen dan scam berbasis AI yang menyebabkan kerugian lebih dari Rp 700 miliar. Ini merupakan statistik yang mengejutkan.
Dan usaha kecil kini semakin rentan, dengan kemungkinan tujuh kali lebih besar melaporkan ketidakmampuan menghadapi ancaman siber dibandingkan pada tahun 2022.
Suka atau tidak, artificial intelligence (AI) memiliki peran besar di sini, tidak hanya dalam meningkatnya jumlah serangan, tetapi juga dalam meningkatnya tingkat kecanggihannya.
Risiko kini muncul di setiap lapisan AI stack, mulai dari prompt injection dan kebocoran data hingga bot scraping berbasis AI dan deepfake. Seperti yang diungkapkan oleh laporan industri terbaru, para penyerang kini menggunakan large language models (LLMs) untuk membuat kampanye phishing yang meyakinkan, menulis polymorphic malware, dan mengotomatiskan social engineering dalam skala besar.
Hasilnya adalah lingkungan ancaman yang belajar, beradaptasi, dan berkembang lebih cepat daripada kemampuan analis manusia untuk merespons.
Apa yang tersembunyi di balik lapisan-lapisan tersebut?
Sistem AI dibangun secara bertingkat, dan setiap lapisan memiliki titik lemahnya masing-masing. Pada environment layer, yang menyediakan komputasi, jaringan, dan penyimpanan, risikonya mirip dengan yang ada pada sistem TI tradisional, namun skala dan kompleksitas beban kerja AI membuat serangan jauh lebih sulit dideteksi.
Lapisan model adalah tempat dimana manipulasi dimulai. Prompt injection, pembuatan konten yang tidak sesuai, dan data exfiltration kini menjadi ancaman utama, seperti yang disorot dalam OWASP 2025 Top 10 for LLM Applications.
Lapisan konteks, yang menjadi tempat database retrieval-augmented generation (RAG) dan penyimpanan memori, telah menjadi sasaran utama pencurian data. Sementara itu, pada lapisan tools dan application, API dengan hak akses berlebih dan agen-agen AI yang terkompromi dapat memberi penyerang akses ke seluruh alur kerja.
Risiko-risiko ini bukanlah sekadar teori. Badan Siber dan Sandi Negara (BSSN) Indonesia memperingatkan bahwa di era AI, serangan siber semakin sulit dideteksi, dengan pemanfaatan alat AI terbaru untuk memperkuat skema penipuan daring seperti phising dan social engineering, serta gangguan teknis yang lebih kompleks seperti ransomware dan serangan Distributed Denial of Service (DDoS).
Dengan kata lain, permukaan serangan semakin berkembang ke segala arah, dan seiring itu, kebutuhan akan pertahanan yang lebih cerdas juga meningkat. Solusinya bukanlah meninggalkan AI, melainkan menggunakan AI untuk mengamankan AI.
Baca tanpa iklan