Ouyang Xin
General Manager of Security Products di Alibaba Cloud Intelligence
Pengalaman sebagai Senior Director, Threat Prevention And App-ID di Palo Alto Networks, Santa Clara AS dan pernah menjadi Manajer di Nevis Networks dan Security Research di Fortinet.
Serangan siber telah meningkat lebih dari dua kali lipat secara global dalam empat tahun terakhir, dari 818 per organisasi pada 2021 menjadi hampir 2.000 per organisasi tahun ini, menurut World Economic Forum (WEF).
Di Indonesia, Badan Siber dan Sandi Negara (BSSN) mencatat sebanyak 3,64 miliar upaya intrusi dan anomali trafik hanya dalam paruh pertama tahun 2025.
Deepfakes yang digerakkan oleh AI telah menjadi perhatian utama di Indonesia, dengan peningkatan konten sebesar 550 persen dan scam berbasis AI yang menyebabkan kerugian lebih dari Rp 700 miliar. Ini merupakan statistik yang mengejutkan.
Dan usaha kecil kini semakin rentan, dengan kemungkinan tujuh kali lebih besar melaporkan ketidakmampuan menghadapi ancaman siber dibandingkan pada tahun 2022.
Suka atau tidak, artificial intelligence (AI) memiliki peran besar di sini, tidak hanya dalam meningkatnya jumlah serangan, tetapi juga dalam meningkatnya tingkat kecanggihannya.
Risiko kini muncul di setiap lapisan AI stack, mulai dari prompt injection dan kebocoran data hingga bot scraping berbasis AI dan deepfake. Seperti yang diungkapkan oleh laporan industri terbaru, para penyerang kini menggunakan large language models (LLMs) untuk membuat kampanye phishing yang meyakinkan, menulis polymorphic malware, dan mengotomatiskan social engineering dalam skala besar.
Hasilnya adalah lingkungan ancaman yang belajar, beradaptasi, dan berkembang lebih cepat daripada kemampuan analis manusia untuk merespons.
Apa yang tersembunyi di balik lapisan-lapisan tersebut?
Sistem AI dibangun secara bertingkat, dan setiap lapisan memiliki titik lemahnya masing-masing. Pada environment layer, yang menyediakan komputasi, jaringan, dan penyimpanan, risikonya mirip dengan yang ada pada sistem TI tradisional, namun skala dan kompleksitas beban kerja AI membuat serangan jauh lebih sulit dideteksi.
Lapisan model adalah tempat dimana manipulasi dimulai. Prompt injection, pembuatan konten yang tidak sesuai, dan data exfiltration kini menjadi ancaman utama, seperti yang disorot dalam OWASP 2025 Top 10 for LLM Applications.
Lapisan konteks, yang menjadi tempat database retrieval-augmented generation (RAG) dan penyimpanan memori, telah menjadi sasaran utama pencurian data. Sementara itu, pada lapisan tools dan application, API dengan hak akses berlebih dan agen-agen AI yang terkompromi dapat memberi penyerang akses ke seluruh alur kerja.
Risiko-risiko ini bukanlah sekadar teori. Badan Siber dan Sandi Negara (BSSN) Indonesia memperingatkan bahwa di era AI, serangan siber semakin sulit dideteksi, dengan pemanfaatan alat AI terbaru untuk memperkuat skema penipuan daring seperti phising dan social engineering, serta gangguan teknis yang lebih kompleks seperti ransomware dan serangan Distributed Denial of Service (DDoS).
Dengan kata lain, permukaan serangan semakin berkembang ke segala arah, dan seiring itu, kebutuhan akan pertahanan yang lebih cerdas juga meningkat. Solusinya bukanlah meninggalkan AI, melainkan menggunakan AI untuk mengamankan AI.
Oleh karena itu, kerangka kerja keamanan yang komprehensif perlu mencakup seluruh siklus hidup AI, melindungi tiga lapisan penting: infrastruktur model, model itu sendiri, dan aplikasi AI. Ketika keamanan tertanam dalam alur kerja bisnis, bukan hanya ditambahkan belakangan, organisasi akan mendapatkan perlindungan yang efisien dengan latensi rendah tanpa mengorbankan kenyamanan atau performa.
Tim keamanan kini telah menerapkan pagar pengaman cerdas yang memindai prompt untuk mendeteksi niat berbahaya, mengidentifikasi perilaku API yang tidak normal, serta memberi watermark pada konten yang dihasilkan agar dapat ditelusuri.
Generasi terbaru dari operasi keamanan berbasis AI menggunakan model multi-agen untuk menganalisis miliaran peristiwa setiap hari, menandai risiko yang muncul secara real time, dan mengotomatisasi tindakan respons awal.
Menurut survei PwC’s Digital Trust Insights 2026, AI kini menduduki posisi teratas dalam daftar prioritas investasi bagi Chief Information Security Officers (CISOs) di seluruh dunia, menandakan bahwa perusahaan akhirnya memperlakukan ketahanan siber sebagai sistem pembelajaran, bukan daftar periksa statis.
Dengan Indonesia yang muncul sebagai salah satu negara dengan tingkat adopsi GenAI tertinggi di Asia Pasifik, mencapai 89 persen, perusahaan-perusahaan didorong untuk memandang keamanan siber sebagai investasi.
Penguatan tata kelola, talenta digital, dan infrastruktur akan menjadi kunci untuk memperkuat ketahanan siber nasional dan memastikan pertumbuhan yang didorong oleh AI tetap aman dan berkelanjutan.
Ancaman yang mengintai di kegelapan
Meskipun perusahaan-perusahaan memperkuat pertahanan mereka, risiko baru yang sebagian besar disebabkan oleh diri sendiri mulai muncul di dalam jaringan mereka sendiri. Risiko ini disebut shadow AI.
Di sebagian besar organisasi, karyawan menggunakan generative tools untuk merangkum laporan, menulis kode, atau menganalisis pelanggan, seringkali tanpa persetujuan resmi atau kontrol tata kelola data.
Menurut laporan dari Netskope, sekitar 90 persen perusahaan saat ini menggunakan aplikasi GenAI, dan lebih dari 70 persen dari alat-alat tersebut termasuk dalam kategori shadow IT. Setiap perintah yang tidak diawasi atau plugin yang tidak diverifikasi berpotensi menjadi kebocoran data sensitif.
Analisis internal di seluruh industri menunjukkan bahwa hampir 45 persen lalu lintas jaringan yang terkait dengan kecerdasan buatan (AI) mengandung informasi sensitif, mulai dari hak kekayaan intelektual hingga catatan pelanggan.
Secara bersamaan, bot yang didukung AI berkembang dengan cepat. Dalam enam bulan, lalu lintas bot yang terkait dengan pengumpulan data dan permintaan otomatis telah meningkat empat kali lipat.
Meskipun AI menjanjikan operasi yang lebih cerdas dan lebih cepat, ia juga mengkonsumsi volume data rahasia yang semakin besar, menciptakan lebih banyak hal yang perlu dilindungi dan lebih banyak hal yang bisa hilang.
Sabuk pengaman untuk kecerdasan buatan (AI)
Pemerintah dan regulator mulai menyadari skala tantangan yang dihadapi. Banyak aturan tata kelola AI mengarah pada masa depan di mana organisasi diharapkan tidak hanya menunjukkan kepatuhan, tetapi juga visibilitas berkelanjutan atas sistem AI mereka.
Postur keamanan harus memperhitungkan pelatihan model, asal-usul data, dan perilaku agen otonom, bukan hanya lalu lintas jaringan atau log akses. Bagi banyak organisasi, hal ini berarti mengintegrasikan keamanan langsung ke dalam alur pengembangan, mengadopsi arsitektur zero-trust, dan memperlakukan model AI sebagai aset yang hidup yang memerlukan pemantauan terus-menerus.
Di Indonesia, pemerintah sedang mengukuhkan kerangka kerja tata kelola kecerdasan buatan (AI) yang komprehensif melalui Peraturan Presiden tentang Rencana Aksi Nasional AI dan Etika AI, yang diperkirakan akan diselaraskan pada awal 2026.
Peraturan ini bertujuan untuk menciptakan ekosistem AI yang berkembang secara aman, etis, dan produktif, sekaligus memperkuat posisi Indonesia dalam ekonomi digital global. Kerangka kerja ini akan melengkapi Undang-Undang Perlindungan Data Pribadi (UU PDP), Strategi Keamanan Siber Nasional (Perpres No. 47/2023), serta upaya paralel dari Komdigi dan BRIN untuk mempromosikan transparansi, akuntabilitas, dan kedaulatan data.
Mitra industri juga turut berperan aktif. Misalnya, Alibaba Cloud mendukung agenda nasional ini dengan membantu organisasi mengimplementasikan infrastruktur AI yang aman, sesuai regulasi, dan dapat diandalkan, yang selaras dengan visi digital jangka panjang Indonesia.
Namun, regulasi saja tidak cukup untuk menutup setiap celah. Seiring dengan kemajuan kemampuan AI, kerentanan baru muncul dengan kecepatan yang sama. Fase berikutnya dalam keamanan siber akan bergantung pada dua pilar: satu yang melindungi sistem AI sambil juga menggunakan AI untuk mendeteksi dan menetralkan ancaman.
Seiring dengan perkembangan model pembelajaran mesin, pertahanan di sekitarnya juga harus berkembang. Aturan statis dan respons manual tidak lagi mampu mengikuti laju musuh yang mengotomatisasi kreativitas dan memanfaatkan kecepatan. Yang dibutuhkan adalah ekosistem yang belajar secepat ia mempertahankan diri.
Perubahan tersebut sudah dimulai. Platform keamanan multi-agen kini mengoordinasikan deteksi, penyaringan, dan pemulihan di seluruh miliaran peristiwa harian.
Model ringan yang spesifik domain menyaring kebisingan, sementara model penalaran yang lebih besar mengidentifikasi pola serangan yang sebelumnya belum pernah terlihat. Ini adalah alur kerja kecerdasan yang meniru musuh, namun kali ini dirancang untuk pertahanan.
Penerapan kecerdasan
Masa depan keamanan digital akan bergantung pada kolaborasi antara wawasan manusia dan intuisi mesin. Secara praktis, hal ini berarti perlu melatih ulang tenaga kerja, serta merancang ulang infrastruktur.
Analis yang mampu menafsirkan output AI, ilmuwan data yang memahami risiko, dan pembuat kebijakan yang membangun kepercayaan melalui transparansi sangat dibutuhkan. Permainan jangka panjang ini tentang kepercayaan, bukan hanya ketahanan. Kepercayaan bahwa sistem yang menggerakkan kehidupan modern sedang belajar untuk melindungi diri mereka sendiri.
Karena pada akhirnya, AI bukanlah musuh dalam cerita ini. Algoritma yang sama yang membuat serangan menjadi lebih kuat serta dapat membuat perlindungan menjadi lebih akurat.
Pertanyaannya bagi para pemimpin bisnis di mana pun adalah, apakah mereka akan bergerak dan berinvestasi cukup cepat, sehingga kecerdasan yang membentuk babak berikutnya dalam keamanan siber, bukan keterlambatan.
Baca tanpa iklan