—·
Agentic AI beralih dari sekadar "obrolan" menjadi eksekusi mandiri. Panduan ini menjabarkan penerapan zero trust melalui identitas agen yang terbatas, daftar izin alat, dan telemetri audit.
Agentic AI tidak hanya menghasilkan jawaban. Teknologi ini merancang rencana, memanggil alat, dan melakukan percobaan ulang saat terjadi kendala—sehingga risiko nyata yang muncul adalah pemberian wewenang operasional kepada sistem tersebut. AI Risk Management Framework dari NIST secara eksplisit memperlakukan otonomi dan risiko pengambilan keputusan ini sebagai aspek yang harus dikelola oleh organisasi, bukan sesuatu yang bisa diabaikan begitu saja. (Source)
Hal ini memicu pertanyaan krusial bagi para praktisi: jika agen AI bertindak layaknya operator dengan hak akses istimewa, apa yang harus ditegakkan oleh prinsip zero trust? Semboyan "jangan pernah percaya, selalu verifikasi" memang berguna, namun bagi agentic AI, prinsip ini harus diwujudkan dalam penegakan saat runtime—batasan yang diterapkan tepat di titik di mana agen tersebut menjalankan aksinya.
Untuk setiap eksekusi agen, Anda harus mampu menjawab tiga pertanyaan operasional:
NIST merumuskan manajemen risiko AI sebagai proses disiplin yang mencakup tata kelola, pemetaan risiko, serta kontrol yang disesuaikan dengan penggunaan dan dampak nyata. (Source) Bagi sistem agen, pemetaan risiko bukanlah teori. Petakan risiko pada momen pemberian wewenang: penerbitan kredensial untuk identitas agen, kebijakan orkestrasi yang mengizinkan pemanggilan alat, dan otorisasi data yang mengizinkan pembacaan atau penulisan. Verifikasi berkelanjutan kemudian menjadi syarat rekayasa: titik penegakan harus berada di tempat kekuatan agen terwujud—batas identitas, izin eksekusi alat, persetujuan, dan visibilitas forensik.
Di sinilah banyak implementasi perusahaan terhambat. Tim sering kali memprioritaskan "kapabilitas" agen namun mengabaikan control plane—identitas eksekusi, daftar alat spesifik yang dapat dipanggil agen, batas data yang dapat diakses, serta pencatatan yang diperlukan untuk merekonstruksi peristiwa. NIST secara khusus telah menandai penggunaan alat dalam sistem agen sebagai area terpisah yang memerlukan pembelajaran dan perhatian khusus. (Source)
Terdapat pula dimensi tata kelola organisasi. Laporan terbaru dari Berkeley mengenai pengelolaan risiko agentic AI menekankan pentingnya manajemen risiko praktis, memperkuat perlunya kontrol dibandingkan penilaian operator yang bersifat ad hoc. (Source)
Zero trust untuk agentic AI dimulai dari lapisan identitas. Agen tidak boleh berjalan menggunakan akun layanan bersama (shared service accounts), kredensial manusia, atau pengguna integrasi dengan akses yang terlalu luas. Gunakan identitas terbatas yang mencerminkan peran dan batas izin agen—pisahkan service principal (atau akun setara) per jenis alur kerja, per lingkungan (dev/test/prod), dan per domain data.
Pedoman manajemen risiko AI dari NIST mengaitkan manajemen risiko dengan tujuan penggunaan dan konteks, bukan sekadar "keamanan model" yang umum. (Source) Ketika agen dapat mengeksekusi tindakan, konteks mencakup siapa atau apa yang berwenang untuk bertindak. Jika Anda menggunakan kembali kredensial lintas tim, Anda kehilangan atribusi terhadap agen dan alur kerja tertentu—yang melemahkan upaya pencegahan maupun respons insiden.
Laporan publik memperkuat pola ini. ITPro mengulas kasus di mana saran "meta engineer" dari agen AI berujung pada terpaparnya data pengguna, yang mengilustrasikan bagaimana akses alat dan integrasi dapat menciptakan dampak kerahasiaan yang nyata. (Source) Detail implementasi langsung memang tidak dijabarkan sepenuhnya, namun pelajaran operasionalnya jelas: otomatisasi yang terhubung ke sistem dan data tanpa batas eksekusi yang cukup ketat.
Sorotan keamanan siber Incibe juga menunjuk pada pelajaran "insiden meta" untuk memperkuat keamanan dan kontrol sistem otonom. Meskipun bukan panduan zero trust, hal ini memperkuat bahwa tata kelola dan kontrol keamanan harus berevolusi seiring perubahan perilaku dan jangkauan otomatisasi. (Source)
Identitas saja tidak cukup. Titik penegakan berikutnya adalah daftar izin alat (tool allowlisting). Dalam istilah agentic AI, "alat" adalah fungsi atau integrasi yang dapat dipanggil oleh agen—API pembuatan tiket, kueri basis data, pengirim email, akses berkas, dan pemicu deployment. Daftar izin berarti agen hanya dapat memanggil rangkaian alat yang telah diverifikasi, dengan parameter dan penanganan keluaran yang terdefinisi.
Publikasi NIST mencakup analisis mengenai pertimbangan keamanan untuk AI, menekankan bahwa organisasi harus mempertimbangkan aspek keamanan sistem AI dalam cara sistem tersebut dideploy dan dioperasikan. (Source) Saat agen dapat mengeksekusi alat, "pertimbangan keamanan" tidak lagi bersifat abstrak, melainkan menjadi desain kontrol akses: validasi input, batasan parameter, dan restriksi output.
Perlakukan setiap panggilan alat sebagai transaksi yang diizinkan dengan tiga kontrol terukur:
Platform orkestrasi mempersulit daftar izin karena mereka memperkenalkan "perekat agen-ke-alat". Sistem orkestrasi secara efektif merupakan bagian dari batas keamanan Anda. Konsorsium NIST mengenai "pelajaran yang dipetik" terkait penggunaan alat untuk sistem agen ada karena tim menghadapi masalah operasional spesifik saat agen dapat memanggil alat. (Source) Bahkan jika platform Anda menawarkan konektor yang nyaman, zero trust berarti memperlakukan konektor tersebut sebagai hak istimewa yang kritis bagi produksi dan harus dikelola.
Orkestrasi agen juga menciptakan mode kegagalan: "permukaan alat yang tidak terbatas". Jika runtime agen dapat menemukan alat secara dinamis, atau model dapat memilih dari registri yang luas tanpa penegakan kebijakan, perluasan kapabilitas dapat melampaui tinjauan keamanan. Laporan ITPro mengenai paparan data pengguna menyoroti bagaimana integrasi bisa menjadi bumerang ketika akses tidak dibatasi. (Source)
Daftar izin harus ditegakkan pada saat runtime—bukan hanya dalam konfigurasi. Postur yang kuat mengharuskan mesin kebijakan untuk mengevaluasi identitas agen ditambah konteks alur kerja dan maksud panggilan alat sebelum eksekusi, lalu menerapkan batasan pada tingkat parameter.
Privilege creep (perayapan hak istimewa) terjadi ketika izin efektif agen meluas seiring waktu—melalui perubahan alur kerja, integrasi alat baru, eskalasi diam-diam dalam pengaturan orkestrasi, atau kebiasaan persetujuan yang menjadi rutin. Zero trust memerlukan lebih dari sekadar hak akses minimum saat peluncuran. Anda membutuhkan deteksi pergeseran (drift detection) dan gerbang persetujuan yang mencegah perluasan akses tanpa tinjauan.
AI Risk Management Framework dari NIST mendukung manajemen risiko berkelanjutan, menyesuaikan dengan realitas bahwa izin agen dan permukaan alat terus berkembang. (Source) Perlakukan manajemen risiko seperti onboarding satu kali, maka pergeseran akses menjadi tak terelakkan. Control plane Anda harus mendukung deteksi perubahan dan otorisasi ulang.
Peringatan risiko praktisi telah menyatu pada pola ini. Cakupan ITPro tentang peringatan dari badan intelijen "Five Eyes" menyoroti bagaimana organisasi mendapat masalah ketika sistem agen dideploy tanpa kontrol memadai atas apa yang dapat dilakukan sistem dan bagaimana tanggung jawab ditetapkan. (Source)
Bangun gerbang persetujuan di sekitar tindakan yang berdampak pada izin—menulis ke basis data produksi, mengubah kebijakan IAM, mengirim email eksternal, mengekspor data sensitif, memulai deployment, atau membuat tiket berisiko tinggi. Detailnya bervariasi di setiap perusahaan, namun pola desainnya tetap konsisten: tindakan dengan konsekuensi permanen atau berdampak tinggi harus memerlukan persetujuan eksplisit dari manusia atau mesin kebijakan yang disetujui.
Deteksi pergeseran harus fokus pada kesenjangan antara apa yang dikonfigurasi untuk dilakukan agen dan apa yang sebenarnya dilakukan. Jika agen mulai menggunakan sub-kumpulan alat baru, atau orkestrasi mulai memberikan akses yang lebih luas, Anda memerlukan peringatan yang memicu tinjauan.
Zero trust bukan hanya preventif—tetapi juga detektif dan responsif. Bagi agentic AI, ini berarti ekspektasi terhadap telemetri audit dan rantai kustodi: setelah insiden, Anda harus mampu merekonstruksi keputusan agen dan eksekusi alat.
Telemetri audit minimal harus mencatat:
AI Risk Management Framework dari NIST mendukung dokumentasi dan artefak tata kelola karena manajemen risiko memerlukan bukti bahwa kontrol diterapkan sebagaimana mestinya. (Source)
Argumen ROI perusahaan untuk agentic AI sering menekankan penghematan waktu, penyelesaian tiket yang lebih cepat, dan alur kerja otomatis. ROI yang berkelanjutan bergantung pada kemampuan Anda untuk mengendalikan eksekusi, mengukur hasil, dan mengurangi biaya insiden.
Materi berorientasi dewan direksi dari KPMG mengenai agentic AI menekankan ekspektasi tata kelola di tingkat senior, yang terhubung langsung dengan ROI dengan mengurangi ketidakpastian operasional dan paparan hukum. (Source) Perhatian tingkat dewan bukanlah kekhawatiran yang "lunak". Ketika auditor meminta bukti, telemetri yang hilang atau persetujuan yang tidak jelas menjadi pembunuh ROI yang tersembunyi.
Ubah persyaratan ini menjadi kontrol yang dapat ditegakkan—lalu verifikasi dengan pengujian.
Orkestrasi agen mengelola pemanggilan alat, langkah perencanaan, percobaan ulang, dan perutean antar alat serta sub-agen. Baik secara internal, melalui platform orkestrasi, atau kerangka kerja agen, sistem ini menjadi titik kritis untuk otorisasi dan auditabilitas.
Kesalahan umum yang sering muncul:
Waspadai orkestrasi yang memperlakukan agen sebagai perencana "kotak hitam". Jika Anda tidak dapat memeriksa langkah-langkah yang direncanakan, urutan panggilan alat, dan keputusan kebijakan yang diterapkan di setiap langkah, Anda tidak memiliki bukti yang diperlukan untuk zero trust. Audit lapisan orkestrasi Anda seperti Anda mengaudit perubahan IAM. Sistem orkestrasi adalah tempat di mana privilege creep dan telemetri yang hilang berakar.
Zero trust untuk agentic AI bukanlah sistem kepercayaan, melainkan standar rilis yang dapat Anda tegakkan dengan identitas terbatas, daftar izin alat yang ketat, persetujuan untuk tindakan berdampak tinggi, deteksi pergeseran hak akses, dan telemetri audit yang mendukung rantai kustodi nyata.
Rekomendasi kebijakan bagi praktisi dan manajer: Pada siklus deployment agentic AI berikutnya, wajibkan mesin kebijakan tingkat orkestrasi yang menegakkan daftar izin alat dan persetujuan saat runtime, serta wajibkan telemetri audit dengan ID korelasi untuk setiap panggilan alat. Dalam 90 hari, tinjauan keamanan internal untuk agentic AI akan bergeser dari bahasa "keamanan prompt" ke bahasa kontrol yang dapat ditegakkan. Jika Anda ingin agen memberikan nilai operasional tanpa menjadi operator yang tidak terkendali, kontrol zero trust Anda harus dapat diuji, ditegakkan, dan mampu membuktikan dengan tepat apa yang diizinkan dan dilakukan oleh agen tersebut.