Oleh karena itu, kerangka kerja keamanan yang komprehensif perlu mencakup seluruh siklus hidup AI, melindungi tiga lapisan penting: infrastruktur model, model itu sendiri, dan aplikasi AI. Ketika keamanan tertanam dalam alur kerja bisnis, bukan hanya ditambahkan belakangan, organisasi akan mendapatkan perlindungan yang efisien dengan latensi rendah tanpa mengorbankan kenyamanan atau performa.
Tim keamanan kini telah menerapkan pagar pengaman cerdas yang memindai prompt untuk mendeteksi niat berbahaya, mengidentifikasi perilaku API yang tidak normal, serta memberi watermark pada konten yang dihasilkan agar dapat ditelusuri.
Generasi terbaru dari operasi keamanan berbasis AI menggunakan model multi-agen untuk menganalisis miliaran peristiwa setiap hari, menandai risiko yang muncul secara real time, dan mengotomatisasi tindakan respons awal.
Menurut survei PwC’s Digital Trust Insights 2026, AI kini menduduki posisi teratas dalam daftar prioritas investasi bagi Chief Information Security Officers (CISOs) di seluruh dunia, menandakan bahwa perusahaan akhirnya memperlakukan ketahanan siber sebagai sistem pembelajaran, bukan daftar periksa statis.
Dengan Indonesia yang muncul sebagai salah satu negara dengan tingkat adopsi GenAI tertinggi di Asia Pasifik, mencapai 89 persen, perusahaan-perusahaan didorong untuk memandang keamanan siber sebagai investasi.
Penguatan tata kelola, talenta digital, dan infrastruktur akan menjadi kunci untuk memperkuat ketahanan siber nasional dan memastikan pertumbuhan yang didorong oleh AI tetap aman dan berkelanjutan.
Ancaman yang mengintai di kegelapan
Meskipun perusahaan-perusahaan memperkuat pertahanan mereka, risiko baru yang sebagian besar disebabkan oleh diri sendiri mulai muncul di dalam jaringan mereka sendiri. Risiko ini disebut shadow AI.
Di sebagian besar organisasi, karyawan menggunakan generative tools untuk merangkum laporan, menulis kode, atau menganalisis pelanggan, seringkali tanpa persetujuan resmi atau kontrol tata kelola data.
Menurut laporan dari Netskope, sekitar 90 persen perusahaan saat ini menggunakan aplikasi GenAI, dan lebih dari 70 persen dari alat-alat tersebut termasuk dalam kategori shadow IT. Setiap perintah yang tidak diawasi atau plugin yang tidak diverifikasi berpotensi menjadi kebocoran data sensitif.
Analisis internal di seluruh industri menunjukkan bahwa hampir 45 persen lalu lintas jaringan yang terkait dengan kecerdasan buatan (AI) mengandung informasi sensitif, mulai dari hak kekayaan intelektual hingga catatan pelanggan.
Secara bersamaan, bot yang didukung AI berkembang dengan cepat. Dalam enam bulan, lalu lintas bot yang terkait dengan pengumpulan data dan permintaan otomatis telah meningkat empat kali lipat.
Meskipun AI menjanjikan operasi yang lebih cerdas dan lebih cepat, ia juga mengkonsumsi volume data rahasia yang semakin besar, menciptakan lebih banyak hal yang perlu dilindungi dan lebih banyak hal yang bisa hilang.
Sabuk pengaman untuk kecerdasan buatan (AI)
Pemerintah dan regulator mulai menyadari skala tantangan yang dihadapi. Banyak aturan tata kelola AI mengarah pada masa depan di mana organisasi diharapkan tidak hanya menunjukkan kepatuhan, tetapi juga visibilitas berkelanjutan atas sistem AI mereka.
Postur keamanan harus memperhitungkan pelatihan model, asal-usul data, dan perilaku agen otonom, bukan hanya lalu lintas jaringan atau log akses. Bagi banyak organisasi, hal ini berarti mengintegrasikan keamanan langsung ke dalam alur pengembangan, mengadopsi arsitektur zero-trust, dan memperlakukan model AI sebagai aset yang hidup yang memerlukan pemantauan terus-menerus.
Di Indonesia, pemerintah sedang mengukuhkan kerangka kerja tata kelola kecerdasan buatan (AI) yang komprehensif melalui Peraturan Presiden tentang Rencana Aksi Nasional AI dan Etika AI, yang diperkirakan akan diselaraskan pada awal 2026.
Baca tanpa iklan