Perubahan nyata: dari “saran AI” menjadi keputusan eksekusi
Saat AI bergerak dari membuat draf menjadi mendelegasikan pekerjaan, profil risikonya berhenti berputar pada kualitas model dan bergeser pada kontrol proses. Gagasan Copilot Cowork— asisten agentic yang dapat menjalankan pekerjaan multi-langkah di dalam sistem perusahaan—membuat satu hal menjadi sangat konkret: organisasi perlu memperlakukan eksekusi sebagai subsistem yang diatur, bukan sekadar fitur kenyamanan.
Di situlah istilah seperti sandboxing, approvals, and governance boundaries berubah menjadi bahasa baru desain alur kerja profesional—bukan sekadar rincian implementasi perangkat lunak (techradar.com).
Perubahannya tampak halus, tetapi dampaknya tegas. Pada skema produktivitas yang lebih lama, manusia bisa meninjau hasil setelah draf muncul. Dalam eksekusi agentic, agen membuat keputusan sementara: alat apa yang dipanggil, dokumen apa yang disentuh, apakah perlu eskalasi, dan kapan harus menunggu. Keputusan-keputusan itu adalah keputusan lapisan eksekusi.
Jika desain ulang hanya dilakukan pada checklist setelah draf terlihat, kegagalan yang lebih besar bisa terlewat: sistem dapat menempuh jalur yang keliru sebelum siapa pun melihat hasilnya.
Kerangka inilah yang menjadi inti editorial tulisan ini. Bukan lagi pertanyaan apakah AI dapat mengerjakan tugas. Melainkan: di mana perusahaan harus menempatkan penilaian manusia, pencatatan/log, dan gerbang persetujuan agar kerja yang didelegasikan tetap berguna sekaligus dapat dipertanggungjawabkan—terutama ketika agen beroperasi melintasi batas identitas, document stores, dan sistem bisnis.
Lapisan eksekusi: mengapa persetujuan kini menjadi “primivatif” alur kerja
Alur kerja tradisional adalah rangkaian handoff manusia: permintaan → draf → peninjauan → persetujuan → pengiriman. Pada eksekusi agentic, waktu menyusut drastis. Agen dapat menghasilkan “draf”, merutekan dokumen, dan mengusulkan revisi dengan cepat—kadang melintasi beberapa aplikasi—sementara manusia tetap berada dalam loop hanya pada beberapa titik kendali yang benar-benar menentukan.
Panduan tata kelola (governance) Microsoft untuk agen AI menekankan bahwa tindakan setiap agen harus dapat diaudit, dan mengaitkan auditabilitas dengan alat observabilitas serta konstruksi identitas (learn.microsoft.com).
Dalam praktiknya, desain alur kerja perlu ditulis ulang di sekitar control points yang eksplisit. Microsoft menggambarkan “zoned governance” sebagai segmentasi lingkungan secara logis dan penerapan kebijakan governance yang berbeda berdasarkan tujuan agen dan tingkat risikonya—pada dasarnya memperlakukan lingkungan sebagai wadah yang menentukan batas untuk data, peran keamanan, dan pemisahan siklus hidup (learn.microsoft.com). Dalam dunia lapisan eksekusi, zona-zona ini berubah menjadi arsitektur fisik alur kerja.
Perubahan yang tak kalah penting adalah membuat persetujuan bersifat struktural, bukan dekoratif. Microsoft menjelaskan “AI approvals” sebagai tahapan keputusan yang dipandu AI untuk mengevaluasi permintaan berdasarkan aturan bisnis yang sudah ditetapkan, sambil memastikan manusia tetap memegang kendali untuk keputusan penting (microsoft.com).
Implikasi editorialnya tegas: jika “persetujuan” hanya berupa manusia membaca email, maka waktunya sudah terlambat. Tetapi jika persetujuan adalah gerbang yang mampu menghentikan atau merutekan eksekusi sebelum perubahan keadaan menyebar, ia menjadi mekanisme keselamatan operasional.
Batas identitas: jeda baru antara “siapa Anda” dan “apa yang boleh dilakukan”
Dalam alur kerja multi-tool, otorisasi tidak bisa menjadi pemikiran tambahan. Ia harus menjadi kondisi batas yang membentuk “semesta eksekusi” agen. Microsoft memposisikan arsitektur yang peka otorisasi untuk tindakan agen sebagai pola yang berbasis identitas—dengan Copilot Studio, Power Automate, Microsoft Entra ID, dan Microsoft Graph—agar agen mengeksekusi secara ketat sesuai izin pengguna yang meminta (techcommunity.microsoft.com).
Ini penting karena pekerjaan profesional jarang benar-benar “read-only”. Pengelolaan kalender menyentuh ketersediaan; pipeline riset-ke-deck menyangkut sumber dan klaim naratif; pembuatan dokumen mengubah keadaan file, bahkan kadang memengaruhi distribusi turunannya. Ketika agen beroperasi dalam batas identitas pemanggil, perusahaan memperoleh model governance yang dapat diprediksi: alur kerja yang didelegasikan berperilaku seperti karyawan yang diimitarinya.
Namun “batas identitas” tidak hanya soal izin. Ia juga menyangkut pemisahan peran agen lintas status siklus hidup. Panduan governance agen Microsoft menekankan pemisahan berbasis Entra agar organisasi dapat membedakan agen produksi, pengembangan, dan pengujian—serta mengaitkan akuntabilitas pada identitas tersebut (learn.microsoft.com).
Dalam bahasa alur kerja: perusahaan tidak lagi sekadar menyerahkan tugas antar-manusia. Perusahaan menyerahkan tugas antar-agen yang memiliki izin serta antar-lingkungan yang harus dapat diaudit.
Kesimpulan editorialnya sederhana: perusahaan harus berhenti memperlakukan “akses agen” sebagai pengaturan global. Alur kerja perlu didesain ulang sehingga setiap langkah memiliki otorisasi yang eksplisit, least-privileged, dan dapat ditelusuri ke batas identitas—apakah batas itu berupa cakupan pengguna yang masuk (signed-in user scope) atau identitas aplikasi/agen yang dibatasi secara sempit.
Observabilitas dan auditabilitas: pencatatan bukan sekadar kotak centang kepatuhan
Jika lapisan eksekusi adalah tempat keputusan dibuat, observabilitas adalah tempat keputusan menjadi bisa dibaca. Dokumentasi Copilot Studio tentang admin logging menjelaskan hubungan antara pengumpulan aktivitas, Purview, dan audit logs—termasuk fakta bahwa solusi audit dapat ditangkap dan ditinjau melalui Microsoft Purview (learn.microsoft.com). Panduan governance yang lebih luas juga menempatkan observabilitas sebagai pusat cara organisasi mengaudit perilaku agen di seluruh perusahaan (learn.microsoft.com).
Tetapi ada peringatan editorial yang melekat pada ekosistem: log harus cukup lengkap untuk mendukung analisis akar masalah (root-cause analysis), bukan hanya sekadar arsip pencatatan kepatuhan. Datadog Security Labs melaporkan bahwa mereka menelusuri “kesenjangan logging” pada Copilot Studio dan membahas inkonsistensi dalam menghasilkan beberapa peristiwa saat retesting, meskipun Microsoft menyatakan aktivitas administratif diaktifkan secara default pada tenant (securitylabs.datadoghq.com).
Terlepas dari interpretasi Datadog, pelajarannya praktis: anggap organisasi akan perlu memvalidasi audit trail end-to-end selama proses peluncuran.
Dalam desain lapisan eksekusi, observabilitas menjadi fitur alur kerja:
- menautkan tanggung jawab pada identitas dan lingkungan,
- membuat persetujuan dapat diperiksa dengan menangkap alasan serta hasil keputusan,
- mendukung penanganan insiden dengan memungkinkan tim menelusuri panggilan tool apa yang terjadi, dokumen apa yang disentuh, dan gerbang mana yang terpanggil.
Dengan kata lain, “auditability/observability” bukan administrasi. Ia adalah ingatan sistem. Perancang alur kerja semestinya memperlakukan apa yang diingat sistem—stempel waktu, alasan keputusan, dan asal-usul panggilan tool—sebagai bagian dari kontrak alur kerja yang wajib.
Realitas kuantitatif: batas kapasitas, alat audit, dan tenggat regulasi
Eksekusi agentic dibatasi oleh batas operasional—terutama penegakan kapasitas pesan—dan ini mengubah cara perusahaan harus menganggarkan throughput alur kerja. Dokumentasi Microsoft untuk Copilot capacity packs menjelaskan bahwa setiap capacity pack adalah lisensi tenant yang mencakup 25.000 Copilot credits per bulan (learn.microsoft.com).
Meskipun kredit bukan metrik “keselamatan” (safety metric), kredit memengaruhi seberapa sering agen dapat bertindak. Akibatnya, kredit menentukan seberapa sering langkah alur kerja dapat berjalan otomatis dibandingkan harus di-escalate untuk peninjauan manusia.
Pengelolaan kapasitas juga tampak dalam panduan Copilot Studio: administrator dapat mengelola kapasitas credit Copilot Studio di Power Platform admin center dan menetapkan batas konsumsi bulanan untuk setiap agen Copilot Studio (learn.microsoft.com).
Secara editorial, ini menegaskan bahwa governance tidak berhenti pada tataran konseptual. Ia dapat diberlakukan secara operasional. Arsitek alur kerja harus mendesain gerbang yang mencegah eksekusi yang “liar” (runaway) dan mengarahkan intervensi manusia saat batas kapasitas mulai didekati.
Cara yang cukup terukur untuk menjadikannya nyata adalah memperlakukan “kehabisan kapasitas” sebagai kegagalan prioritas pertama, bukan sebagai kejutan. Untuk setiap workflow agen, tim sebaiknya menetapkan:
- Ekspektasi konsumsi kredit per eksekusi (credits/run), turunan dari lalu lintas uji dan tindakan spesifik yang dipicu agen (panggilan tool, retrieval, alur multi-langkah).
- Guardrail bergaya SLO/SLA: misalnya, “jika proyeksi kredit untuk N eksekusi berikutnya melampaui anggaran bulanan yang tersisa, beralih ke human-in-the-loop mulai dari langkah X.”
- Perilaku backpressure: apa yang dilakukan agen saat melewati batas bulanan (gagal dengan meminta persetujuan, jeda dan antre, atau degradasi menjadi bantuan read-only).
Dengan cara ini, kapasitas menjadi governance, bukan sekadar trivia pengadaan.
Di sisi timeline regulasi, EU Artificial Intelligence Act menetapkan kewajiban transparansi, termasuk pencatatan dan kewajiban transparansi untuk sistem tertentu. AI Act Service Desk merangkum kewajiban transparansi Pasal 50 dan merujuk pada versi resmi Regulasi (EU) 2024/1689 (ai-act-service-desk.ec.europa.eu).
Meski workflow spesifik tidak dikategorikan sebagai “berisiko tinggi”, perusahaan yang beroperasi lintas yurisdiksi sebaiknya memperlakukan logging dan record-keeping sebagai persiapan yang kompatibel ke depan: semakin banyak eksekusi didelegasikan, semakin masuk akal untuk memiliki jejak bukti. Namun “kompatibel ke depan” perlu diterjemahkan menjadi pertanyaan retensi dan akses: perusahaan harus memutuskan artefak workflow mana (input, alasan keputusan, asal-usul panggilan tool, dan hasil persetujuan) yang disimpan, untuk berapa lama, serta siapa yang dapat mengaksesnya ketika auditor—atau penanggap insiden internal—datang.
Terakhir, posisi Microsoft memperkuat sikap audit: Microsoft menekankan bahwa tindakan agen harus dapat diaudit dan merekomendasikan observabilitas agen melalui Agent 365 serta identitas melalui Entra Agent Identity (learn.microsoft.com). Intinya bukan bahwa pedoman satu vendor mendefinisikan kepatuhan hukum. Melainkan bahwa desain lapisan eksekusi semakin menuntut alur kerja yang auditabilitasnya dibangun sejak awal.
Studi Kasus 1: AI approvals di Copilot Studio—governance sebagai langkah, bukan review setelah selesai
Contoh konkret pendekatan lapisan eksekusi muncul lewat pengenalan “AI approvals” di Copilot Studio oleh Microsoft—tahapan persetujuan yang dapat menyetujui atau menolak permintaan secara otomatis berdasarkan kriteria yang telah ditetapkan, sambil memastikan manusia tetap memegang kendali untuk keputusan penting (learn.microsoft.com).
Maknanya terletak pada pergeseran lokasi keputusan persetujuan.
Alih-alih “manusia memeriksa hasil,” alur kerja memasukkan subroutine keputusan. Dokumentasi Microsoft memposisikan AI approvals sebagai mekanisme evaluasi yang mengembalikan keputusan “Approved” atau “Rejected” beserta alasan, serta memberi contoh penggunaan seperti persetujuan pemrosesan invoice (learn.microsoft.com). Contoh itu menyoroti pola profesional yang umum: dokumen dihasilkan, lalu divalidasi terhadap aturan bisnis sebelum tindakan lanjutan apa pun (pembayaran, persetujuan, atau notifikasi) dilakukan.
Secara editorial, ini menunjukkan template governance lapisan eksekusi:
- Agen mengusulkan suatu tindakan atau outcome tahap.
- Workflow mengevaluasinya terhadap aturan governance.
- Workflow melanjutkan atau mengeskalasi ke tinjauan manusia berdasarkan ambang yang dikonfigurasi.
Pola ini menjawab pertanyaan desain ulang alur kerja: di mana manusia berada? Manusia ditempatkan pada ambang yang mewakili penilaian bisnis non-rutin—pengecualian, langkah berbiaya tinggi, atau kasus yang ambigu ketika kebijakan tidak bisa mencakup semua nuansa. Lapisan eksekusi mewujudkan itu dengan menjadikan persetujuan bagian dari graf alur kerja.
Studi Kasus 2: Zoned governance di Copilot Studio—segmentasi sebagai koreografi risiko
Desain operasional konkret lainnya terlihat pada panduan Microsoft tentang “zoned governance” untuk Copilot Studio. Microsoft mendefinisikan zoned governance sebagai segmentasi lingkungan dan penerapan kebijakan governance berbeda berdasarkan tujuan agen dan tingkat risikonya, termasuk pemisahan peran keamanan, kebijakan data, dan pemisahan siklus hidup (learn.microsoft.com).
Lebih dari sekadar jargon arsitektur, ini adalah prinsip desain ulang alur kerja: perlakukan setiap kelas workflow—penjadwalan rutin, peringkasan riset, pembuatan draf dokumen yang terkait hak distribusi—sebagai milik zona governance yang berbeda. Zona tersebut menentukan apa yang dapat diakses agen, persetujuan apa yang harus dimintanya, dan bagaimana data observabilitas disimpan serta ditinjau.
Agar “segmentasi” tidak abstrak, workflow perlu mendefinisikan matriks zona—tabel yang memetakan setiap langkah workflow (atau izin tool) ke (a) zona tempat ia dijalankan, (b) tindakan maksimum yang boleh dilakukan di sana, dan (c) jalur persetujuan atau eskalasi jika agen perlu melampaui batas tersebut. Misalnya, zona “asisten berisiko rendah” dapat dibatasi pada read-only retrieval dan pembuatan draf; zona “penerbitan berkepercayaan tinggi” menjadi satu-satunya tempat di mana hak distribusi benar-benar diberikan.
Nilai editorialnya: batas governance lebih mudah dimengerti karena bukan sekadar “vibes”. Batas itu adalah keputusan routing yang dapat diberlakukan.
Uji utamanya juga operasional: perusahaan harus memverifikasi bahwa workflow tidak dapat “keluar” dari zona yang seharusnya melalui retries, rantai tool multi-langkah, atau penanganan data pada kasus tepi. Dalam praktiknya, itu berarti merancang negative tests—membuktikan bahwa agen tidak dapat menulis ke protected stores ketika dieksekusi dengan identitas zona yang lebih rendah—serta memastikan peristiwa audit menyertakan konteks zona agar respon insiden dapat membedakan “misbehavior” dari “misrouting”.
Studi Kasus 3: Validasi logging setelah peluncuran—ketika “auditability” bertemu pelaksanaan dunia nyata
Kasus ketiga bukan sekadar pembaruan fitur vendor. Ia adalah pelajaran operasional dari pengujian keamanan. Datadog Security Labs mempublikasikan temuan tentang “kesenjangan logging” di Copilot Studio: mereka menggambarkan upaya menghasilkan peristiwa tertentu dan menyatakan bahwa generasi peristiwa tidak konsisten saat retesting (securitylabs.datadoghq.com). Apa pun akar masalahnya (yang tepat), proses yang terdokumentasi tetap relevan.
Perusahaan yang menerapkan workflow lapisan eksekusi semestinya menjalankan auditability acceptance testing—langkah praktis yang sering tidak diperlakukan sebagai kebutuhan esensial oleh tim governance. Verifikasi yang disarankan:
- peristiwa audit muncul di Purview pada kondisi yang diharapkan,
- identitas berkorelasi dengan benar ke eksekusi agen,
- persetujuan sesuai dengan alasan keputusan yang tercatat.
Kasus ini menautkan kata kunci “auditability/observability” ke realitas: logging adalah hasil yang harus diserahkan (deliverable), bukan manfaat implisit dari penggunaan tooling enterprise.
Studi Kasus 4: Kesiapan AI Indonesia dan arah governance perbankan—governance lokal menjadi governance alur kerja
Redesain lapisan eksekusi tidak hanya cerita yang berpusat pada Microsoft. Ia juga bersinggungan dengan bagaimana negara membingkai kesiapan governance AI dan aturan sektor.
Di Indonesia, UNESCO dan Kementerian Komunikasi dan Informatika (KOMINFO) menyelesaikan AI Readiness Assessment untuk Indonesia dengan metodologi RAM UNESCO, dan melaporkan pada 9 Oktober 2024 (unesco.org). Meski laporan tersebut bukan daftar periksa untuk workflow Copilot, ia menunjukkan bahwa peta jalan governance Indonesia menekankan governance AI yang etis serta kolaborasi institusional—kondisi yang membuat perusahaan akan diharapkan menyediakan bukti untuk penerapan bertanggung jawab (unesco.org).
Untuk arah spesifik sektor, sebuah newsflash PwC Indonesia “Digital Trust” merujuk pada pengenalan OJK “Artificial Intelligence Governance for Indonesian Banking” pada 29 April 2025 (pwc.com). Materi yang dirujuk menunjukkan bahwa governance, supervisi/audit, dan proses terkait menjadi bagian dari kerangka governance AI perbankan (pwc.com).
Secara editorial, ini menguatkan argumen redesain workflow: di sektor yang teregulasi, eksekusi yang didelegasikan harus memetakan secara jelas ke ekspektasi governance—manajemen risiko, mekanisme audit, dan pedoman implementasi. Semua itu lebih mudah ketika persetujuan, batas identitas, dan observabilitas dirancang masuk ke workflow sejak awal.
Namun poin editorial yang lebih dalam adalah bagaimana “governance lokal” berubah menjadi kebutuhan desain workflow. Saat regulator sektor menuntut supervisi dan bukti, perusahaan tidak bisa bergantung pada narasi post-hoc tentang “apa yang dilakukan model.” Perusahaan membutuhkan artefak yang dihasilkan oleh workflow: siapa menyetujui apa, identitas apa yang digunakan, batas data apa yang sedang berlaku, dan log apa yang dihasilkan pada momen tindakan. Karena itu kontrol lapisan eksekusi—gerbang persetujuan, izin yang dibatasi zona, dan validasi auditabilitas—menjadi “primitif kepatuhan” yang bisa berpindah lintas yurisdiksi.
Mendesain tiga workflow yang tidak boleh salah
Mari konkretkan pada kelas workflow profesional yang disebutkan: pengelolaan kalender, pipeline riset-ke-deck, serta alur pembuatan dokumen.
1) Pengelolaan kalender: ketersediaan adalah data operasional yang sensitif
Workflow kalender terasa menggoda untuk sepenuhnya diotomasi karena hasilnya “hanya penjadwalan.” Namun lapisan eksekusi tetap penting karena penjadwalan dapat memicu rapat lanjutan, komitmen internal, dan komitmen pemangku kepentingan eksternal.
Karena itu:
- Batas identitas harus diberlakukan agar agen menjadwalkan hanya dalam ruang lingkup mailbox/pengguna yang benar (desain berbasis otorisasi lebih dulu) (techcommunity.microsoft.com).
- Observabilitas harus cukup andal untuk merekonstruksi “mengapa” perubahan terjadi—terutama saat muncul pengecualian. Perusahaan sebaiknya menghubungkan log tindakan ke peristiwa persetujuan dan alasan keputusan (learn.microsoft.com).
Gerbang persetujuan semestinya terpanggil untuk perubahan non-rutin: undangan dari pihak eksternal, benturan dengan jadwal yang dilindungi, atau apa pun yang melintasi kebijakan organisasi. Penilaian manusia berada tepat di tempat “konteks bisnis” hidup.
2) Pipeline riset-ke-deck: provenance dan integritas narasi adalah outcome workflow
Riset-ke-deck sering membuat penilaian profesional tampak seperti kreativitas. Dalam istilah lapisan eksekusi, penilaian adalah verifikasi. Agen dapat menyusun slide dengan cepat, tetapi eksekutif membutuhkan provenance, konsistensi internal, serta batas sumber yang jelas.
Redesain workflow karenanya perlu memuat:
- pembatasan panggilan tool tentang dari mana sumber boleh diambil,
- persetujuan untuk klaim yang butuh konfirmasi,
- observabilitas yang menangkap sumber apa yang digunakan dan kapan.
Ini terhubung langsung dengan kerangka auditability/observability yang ditekankan Microsoft untuk tindakan agen (learn.microsoft.com). Jika agen dapat menelusuri sumber, ia harus melakukannya dalam batas identitas dan lingkungan sehingga audit trail tetap dapat ditafsirkan.
3) Alur pembuatan dokumen: hak distribusi adalah gerbang yang sesungguhnya
Pembuatan dokumen sering dipandang sebagai masalah penyusunan draf. Desain lapisan eksekusi membingkainya ulang sebagai masalah hak dan distribusi: siapa yang boleh membuat, siapa yang boleh mempublikasikan, dan siapa yang boleh memodifikasi versi setelah peninjauan.
Model governance Microsoft mendukung tahap alur persetujuan (termasuk AI approvals) dan menekankan bahwa kendali manusia tetap diperlukan untuk keputusan penting (learn.microsoft.com). Perusahaan harus memakai persetujuan tidak hanya untuk menghentikan konten yang salah, tetapi juga untuk mencegah transisi keadaan yang tidak berwenang: draf → review → publish harus menjadi urutan yang terkontrol dengan gerbang yang dicatat dan korelasi identitas (learn.microsoft.com).
Di mana menempatkan penilaian manusia, logging, dan penegakan kebijakan
Model mental yang berguna adalah memetakan setiap langkah workflow ke tiga lapisan:
- Batas otorisasi (batas identitas perusahaan): apa yang boleh diakses dan diubah agen, di bawah izin siapa (techcommunity.microsoft.com).
- Gerbang penegakan kebijakan (governance workflow): apa yang diperiksa workflow sebelum transisi keadaan berjalan (learn.microsoft.com).
- Catatan audit/observabilitas (auditability/observability): apa yang dicatat, dikorelasikan, dan dipertahankan untuk merekonstruksi peristiwa (learn.microsoft.com).
Penilaian manusia terutama ditempatkan pada keputusan ambang (pengecualian, situasi kepatuhan yang ambigu, langkah distribusi berdampak tinggi), bukan pada pemformatan rutin atau edits berdampak rendah yang murah. Logging ditempatkan pada titik keputusan dan efek samping (panggilan tool, penulisan dokumen, aksi distribusi/publikasi), bukan hanya pada giliran percakapan (conversational turns). Penegakan kebijakan ditempatkan pada transisi keadaan, bukan hanya pada keluaran akhir.
Tantangan redesain workflow perusahaan juga bersifat organisasional: ia memaksa tim legal, keamanan, dan operasi bekerja bersama pemilik produk otomasi workflow agar gerbang konsisten dan dapat diuji.
Kesimpulan: aksi eksekutif diperlukan—kelola eksekusi pada Q3 2026
Jika “eksekusi” ala Copilot Cowork menjadi norma, pembeda perusahaan tidak lagi terletak pada agen mana yang bisa membuat draf tercepat. Pembeda akan berada pada seberapa konsisten perusahaan mampu membatasi kerja yang didelegasikan—melalui zona seperti sandboxing, batas identitas, dan persetujuan yang dapat diaudit—tanpa mengubah setiap tugas menjadi kemacetan birokratis.
Rekomendasi kebijakan (aktor konkret): CIO dan CISO harus mewajibkan execution-layer readiness review untuk setiap workflow agen yang diaktifkan AI dan akan dideploy ke produksi, dengan tiga kriteria penerimaan: (1) penegakan batas identitas yang dipetakan ke pengguna peminta atau identitas agen yang dibatasi sempit (techcommunity.microsoft.com); (2) gerbang persetujuan tertanam sebelum perubahan keadaan untuk langkah bernilai dampak tinggi, menggunakan AI approvals jika sesuai dan human review ketika ambang kebijakan menuntut (learn.microsoft.com); dan (3) validasi auditability end-to-end di Purview (termasuk keberadaan event dan korelasi keputusan), dengan menyadari bahwa perilaku logging harus diverifikasi, bukan diasumsikan (learn.microsoft.com, securitylabs.datadoghq.com).
Prakiraan (timeline dengan kuartal): Pada Q3 2026, program governance enterprise diperkirakan matang dari “model risk review” menjadi “workflow execution contracts” untuk eksekusi agentic—di mana tim memperlakukan gerbang persetujuan, batas identitas, dan observabilitas sebagai spesifikasi antarmuka yang wajib, mirip bagaimana organisasi memperlakukan kebutuhan IAM dan audit untuk sistem produksi lainnya. Prakiraan ini sejalan dengan arah panduan governance agen Microsoft yang menekankan tindakan yang dapat diaudit, governance berbasis zona, dan instrumentasi observabilitas (learn.microsoft.com, learn.microsoft.com).
Perubahan yang dapat langsung dikerjakan oleh praktisi adalah meredesain workflow dengan pertanyaan: apa yang harus benar sebelum agen diizinkan menyentuh “realitas bersama”—kalender, dokumen, dan pengetahuan internal yang dipakai eksekutif serta tim. Saat lapisan eksekusi dibangun dengan checkpoint manusia yang eksplisit dan log yang dapat diverifikasi, pekerjaan profesional dapat menjadi lebih cepat tanpa berubah menjadi tak bertanggung jawab.
Referensi
- The era of Copilot execution is here — Microsoft’s Copilot Cowork is here with Anthropic AI to conquer all your biggest work tasks - TechRadar
- Governance and security for AI agents across the organization - Microsoft Learn (Cloud Adoption Framework)
- Authorization and Identity Governance Inside AI Agents - Microsoft Security Blog (Tech Community)
- View audit logs for admins, makers, and users of Copilot Studio - Microsoft Learn
- Detecting and mitigating common agent misconfigurations - Microsoft Security Blog
- Uncovering agent logging gaps in Copilot Studio - Datadog Security Labs
- Zoned governance strategy - Microsoft Copilot Studio - Microsoft Learn
- FAQ for AI approvals - Microsoft Copilot Studio - Microsoft Learn
- AI readiness assessment: UNESCO and KOMINFO completed AI Readiness Assessment for Indonesia - UNESCO
- Digital Trust newsflash 2025-09 - PwC Indonesia (mentions OJK Artificial Intelligence Governance for Indonesian Banking introduced on 29 April 2025)
- Article 50: Transparency obligations for providers and deployers of certain AI systems - EU AI Act Service Desk
- Each capacity pack includes 25,000 Copilot Credits per month - Copilot capacity packs documentation - Microsoft Learn