Pergeseran UX yang merusak model tata kelola perusahaan lama
Zoom tidak lagi memosisikan AI semata sebagai asisten produktivitas yang menulis lebih cepat. Arah terbarunya justru menuju AI yang bertindak di dalam alur kerja yang sudah dijalankan—bukan hanya membantu merapikan teks.
Perubahan paling jelas adalah langkah Zoom untuk memungkinkan pengguna membangun agen AI kustom untuk kebutuhan bisnis yang terkait rapat. Pengguna dapat memakai perangkat dan template Zoom untuk menghubungkan konteks rapat ke aplikasi yang berada di hilir. (ITPro, Zoom Custom AI Companion)
Konsekuensi operasional dari pergeseran kemampuan ini kerap diremehkan banyak perusahaan: tata kelola tidak bisa ditempatkan hanya di lapisan “output chat”. Jika agen mampu mengubah percakapan menjadi artefak terstruktur lalu memanggil tool, maka permukaan risiko bergeser ke hulu—ke momen eksekusi.
Dalam praktiknya, tim yang sebelumnya memperlakukan AI sebagai pembuat dokumen kini menghadapi persoalan yang lebih dekat pada rekayasa: menentukan batas kemampuan, mengatur persetujuan pada saat pemanggilan (invocation), serta menyiapkan jejak audit yang menyerupai manajemen perubahan perangkat lunak—bukan sekadar catatan percakapan.
Itulah pola yang sedang muncul: “workflow UX → workflow governance.” Workflow UX merujuk pada antarmuka yang membuat tindakan agen terasa alami bagi karyawan—bertanya, merangkum, menyusun draf, menjadwalkan, mengarsipkan. Workflow governance adalah sistem yang harus menyertainya: menentukan siapa yang bisa merancang apa, kemampuan apa yang tersedia, kapan persetujuan terjadi, dan bagaimana keterlacakan (traceability) dicatat agar keluaran tetap konsisten dengan kebijakan.
Zoom sebagai jangkar: dari catatan rapat ke eksekusi agen
Custom AI Companion dan posisi AI Studio dari Zoom secara eksplisit diarahkan untuk menyesuaikan agen agar sesuai kebutuhan organisasi dan proses bisnis yang spesifik. Zoom menggambarkan adanya alat administrasi tempat kamus kustom, koleksi pengetahuan, serta template ringkasan rapat dapat dikonfigurasi melalui AI Studio—dan menyajikan agen kustom sebagai cara untuk menyesuaikan perilaku AI terhadap alur kerja organisasi. (Zoom AI Studio / penjelasan custom agents, Zoom Custom AI Companion (halaman produk))
Zoom juga membuat janji “rapat menjadi aksi” lebih konkret dibanding sekadar “catatan rapat” generik. Dalam penjelasan teknisnya, sistem dibangun di atas (a) menjadikan konten rapat sebagai masukan, (b) memetakan kebutuhan yang teridentifikasi ke langkah-langkah workflow yang didefinisikan, serta (c) menjalankan rangkaian aksi multi-langkah di platform yang terhubung—yang pada dasarnya memperlakukan transkrip rapat sebagai pemicu di hulu untuk pekerjaan di hilir. Dengan kata lain, pengalaman pengguna bukan hanya “bertanya lalu mendapatkan teks”, melainkan “bertanya lalu mengeksekusi rangkaian”—di mana setiap langkah bisa melibatkan penarikan informasi, pembuatan artefak, dan tindakan pada sistem eksternal. (Zoom Technical Library: Custom AI Companion explainer (fitur & arsitektur))
Hal yang krusial untuk tata kelola adalah bahasa arsitektur Zoom yang mengisyaratkan bahwa kustomisasi bukan hanya soal mengubah gaya bahasa atau kosakata. Kustomisasi juga dapat mengubah bagaimana agen menafsirkan sinyal yang berasal dari rapat dan langkah workflow mana yang dipilih untuk dijalankan. Karena itu, bidang kontrol (control plane) perusahaan tidak bisa memperlakukan template sebagai sekadar elemen kosmetik.
Ketika organisasi menambahkan koleksi pengetahuan kustom atau template ringkasan, organisasi pada saat yang sama sedang mengubah “input keputusan” bagi agen pada pemanggilan tool berikutnya. Maka pertanyaan tata kelola bergeser dari “apakah keluarannya benar?” menjadi “tool action apa yang menjadi layak, dan berdasarkan interpretasi seperti apa terhadap konten rapat?” (Dokumentasi Zoom mengenai template dan eksekusi workflow menjadi jangkar untuk interpretasi ini.) (Zoom technical library (multi-step workflows))
Bahkan kemasan komersial mempertegas pergeseran tata kelola. Zoom menyatakan add-on Custom AI Companion ditawarkan sebesar “$12 per pengguna per bulan”, sehingga kustomisasi diposisikan sebagai kapabilitas yang dapat dideploy, bukan sekadar uji coba sekali jalan. (Zoom: AI Companion add-on pricing, Zoom April 2025 innovations)
Mengapa ini penting bagi perusahaan
Ketika kustomisasi menjadi layanan mandiri (self-service), model operasional perusahaan berubah setidaknya dalam empat cara:
- Perancang workflow menjadi lebih beragam. Jika pengguna akhir dapat membuat atau menyesuaikan agen, populasi “penulis workflow” secara efektif melebar. Tata kelola harus mendefinisikan peran, hak peninjauan, dan batas—jika tidak, kebijakan hanya akan ditegakkan setelah kejadian.
- Kapabilitas berubah menjadi katalog yang hidup. Agen tidak lagi sekadar menghasilkan teks; agen memilih aksi dan memanggil tool. Perusahaan membutuhkan model scoping kapabilitas (aksi apa yang diizinkan, untuk konteks apa, dan dengan persetujuan seperti apa).
- Persetujuan harus bergeser ke waktu pemanggilan. Persetujuan setelah keluaran dihasilkan sudah terlalu terlambat ketika pemanggilan tool sudah terjadi atau pemanggilan sebagian telah menimbulkan efek samping.
- Auditabilitas harus melacak eksekusi, bukan hanya narasi. Keterlacakan perlu menangkap apa yang dilakukan agen, input apa yang digunakan, kebijakan mana yang dievaluasi, dan bagaimana keluaran memetakan kembali ke kontrol tersebut.
Lima kebutuhan perusahaan pada lapisan workflow-governance
NIST AI Risk Management Framework (AI RMF) bukan spesifikasi “tata kelola tool”, tetapi memberikan bahasa untuk memasukkan pertimbangan trustworthiness ke dalam desain, pengembangan, penggunaan, dan evaluasi. NIST menggambarkan AI RMF sebagai kerangka kerja sukarela yang ditujukan untuk membantu organisasi memasukkan pertimbangan trustworthiness sepanjang siklus hidup AI. (NIST: AI RMF Generative AI Profile)
Dengan eksekusi agenik seperti Zoom, perusahaan dapat mengoperasionalkan pemikiran siklus hidup itu dengan menerjemahkan trust menjadi perilaku sistem. Kebutuhan praktisnya tampak kurang seperti memo kebijakan dan lebih seperti sistem kontrol eksekusi:
1) Terjemahkan peran pekerjaan menjadi batas kapabilitas (bukan sekadar izin abstrak)
Alih-alih menganggap akses sebagai “boleh menggunakan AI”, governance harus mendefinisikan batas kapabilitas yang selaras dengan peran dan tanggung jawab. Misalnya, peran dukungan pelanggan mungkin diizinkan untuk menyusun respons yang ditujukan kepada pelanggan serta membuat tiket internal, tetapi dilarang menyetujui pengembalian dana atau mengubah penagihan tanpa persetujuan khusus.
Kerangka NIST mendorong organisasi untuk memasukkan pertimbangan trustworthiness lintas desain dan penggunaan—sehingga capability scoping menjadi mekanisme untuk menegakkan kebutuhan trust secara berkelanjutan, bukan tahunan. (NIST: AI RMF Generative AI Profile)
Workflow UX yang mengundang karyawan untuk membangun “agen AI kustom sendiri” membuat terjemahan ini tak terhindarkan. Arah Zoom terhadap agen kustom berarti perusahaan harus mendefinisikan batas agen tersebut beroperasi—terutama ketika konteks yang bersumber dari rapat menjadi pemicu penggunaan tool di hilir. (ITPro, Zoom Custom AI Companion)
2) Ubah konteks rapat menjadi artefak terstruktur—namun cegah tindakan yang tak terkendali
Konteks rapat secara alami memuat ucapan yang tidak terstruktur, keputusan, komitmen, serta ambiguitas. Zoom menggambarkan template ringkasan rapat dan format yang spesifik organisasi sebagai cara untuk menyeragamkan keluaran. (Zoom: template meeting summary via AI Studio, Zoom technical library (multi-step workflows))
Namun, artefak terstruktur tidak otomatis menjadi artefak yang aman. Perusahaan membutuhkan pipeline konversi yang dikendalikan dan eksplisit tentang (1) apa yang dijadikan terstruktur, (2) artefak mana yang diizinkan memicu aksi hilir tertentu, dan (3) bagian mana dari konten rapat yang tidak pernah boleh menjadi input tool.
Cara praktis untuk mengoperasionalkan ini adalah dengan mendefinisikan kontrak artefak untuk setiap workflow dari rapat ke aksi. Contohnya, kontrak untuk “action item” semestinya memuat:
- Skema field (pemilik, tanggal jatuh tempo, sistem yang dirujuk, prioritas),
- Keterkaitan bukti (segmen transkrip mana yang mendukung ekstraksi),
- Penanganan tingkat keyakinan (apa yang terjadi bila agen ragu—misalnya mengalihkan ke peninjauan manusia versus meniadakan),
- Aturan pemicu (field mana yang membuat artefak layak untuk pemanggilan tool).
Di sinilah pemikiran “privacy flow graph” dapat membantu. Jika dipetakan bagaimana data personal berpindah dari audio/transkrip rapat ke basis pengetahuan, lalu ke aplikasi eksternal, perusahaan dapat menegakkan batasan yang sering tidak terlihat pada governance berbasis teks semata. Riset mengenai privacy flow graphs untuk workflow agenik memotret persoalan ini sebagai upaya menelusuri aliran informasi melalui agent pipeline, bukan hanya menilai keluaran akhir. (AgentSCOPE: Privacy Flow Graph)
3) Terapkan titik persetujuan pada saat pemanggilan tool
Ini perubahan operasional inti yang tersirat dari workflow agenik. Jika agen dapat mengeksekusi aksi—seperti mencari data di sistem, membuat tiket Jira, memposting ke Slack, atau menyusun dokumen—maka titik tata kelola harus berada sebelum pemanggilan tool atau sebelum muncul efek samping.
Penjelasan arsitektur Zoom mengenai eksekusi workflow multi-langkah menunjukkan risikonya: setelah tool terhubung, agen dapat bergerak dari analisis ke aksi. (Zoom Technical Library: features & architecture)
Persetujuan setelah pembuatan teks tidak memadai karena:
- efek samping bisa sudah terlanjur dikomit sebelum narasi final diproduksi,
- sekalipun ringkasan final kemudian ditolak, sistem hilir mungkin sudah memproses data,
- kemampuan organisasi untuk menunjukkan kepatuhan bergantung pada log pemanggilan pada saat invocation, bukan hanya pada penjelasan yang dihasilkan.
Agar “invocation-time” menjadi nyata, perusahaan sebaiknya memakai model gating yang membedakan aksi baca (read) dan aksi tulis (write), lalu menegakkan persetujuan pada write (dan kadang pada read bernilai risiko tinggi). Secara konkret:
- Identitas tool + endpoint: catatan persetujuan harus menyebut tool yang tepat (misalnya “Jira create issue” versus “Jira search”) dan target sistem/instans.
- Intensi pada level objek: tangkap objek yang dituju (proyek/ruang mana, rentang ID record mana, channel mana) yang berasal dari artefak.
- Evaluasi kontrol kebijakan: log kapabilitas boundary dan kebijakan persetujuan yang dievaluasi untuk invocation tersebut.
- Keputusan manusia + alasan: simpan apakah persetujuan diberikan, ditolak, atau memerlukan revisi, beserta kode alasan dari penyetuju.
Dengan demikian, “titik persetujuan” berubah dari prinsip yang abstrak menjadi kontrol yang dapat diaudit—bisa diuji dengan mencoba workflow yang seharusnya gagal, lalu memverifikasi kegagalan terjadi pada saat invocation, bukan setelahnya.
4) Tegakkan auditabilitas sebagai keterlacakan eksekusi
Auditabilitas harus direkayasa sebagai keterlacakan. Komisi Eropa menjelaskan bahwa AI Act mensyaratkan logging untuk memastikan keterlacakan hasil dan membahas logging sebagai bagian dari desain regulatori; aturan untuk sistem berisiko tinggi dan langkah terkait dijadwalkan berlaku dengan tonggak pada Agustus 2026. (European Commission: AI Act policy overview)
Bahkan bila perusahaan tidak menyiapkan diri untuk pengajuan berdasarkan AI Act, arah kebijakan yang jelas adalah ekspektasi kepatuhan yang makin menuntut logging dan pemantauan yang bisa ditinjau. Karena itu, eksekusi agenik sebaiknya diperlakukan seperti perubahan perangkat lunak:
- version controls untuk workflow/template,
- log eksekusi yang tidak dapat diubah (immutable),
- tampilan peninjau yang menjawab “apa yang berubah dan mengapa?” alih-alih “apa yang dikatakan agen?”
5) Jaga konsistensi keluaran agen dengan kebijakan melalui “scoped generation”
Salah satu mode kegagalan adalah policy drift: agen menulis teks yang terdengar masuk akal tetapi tidak selaras dengan apa yang sebenarnya diizinkan organisasi. Masalah ini tidak cukup diselesaikan oleh guardrails generik. Perusahaan perlu generation yang di-scope oleh batas kapabilitas dan constraints dari konteks ke artefak.
Cara pikir yang berguna: generation adalah lapisan permukaan, sedangkan governance adalah struktur yang berada di bawahnya. Jika organisasi hanya mengizinkan tipe artefak tertentu dan hanya aksi tool tertentu dalam konteks yang didefinisikan, maka keluaran teks yang berkualitas tinggi sekalipun akan memiliki lebih sedikit peluang menyimpang dari kebijakan.
Angka di balik keributan tata kelola
Workflow agenik tidak datang dalam ruang hampa. Adopsi AI perusahaan telah bergerak dari eksperimen menuju penyebaran yang lebih luas—dan skala itu memperbesar celah tata kelola.
Tiga titik jangkar kuantitatif membantu menjelaskan mengapa tata kelola perlu matang sekarang:
- Investasi generative AI mencapai $33,9 miliar secara global dalam investasi privat (konteks 2023 vs 2024), naik 18,7% dari 2023. Laporan Stanford AI Index menyoroti momentum ini. (Stanford HAI: 2025 AI Index Report)
- Dalam survei Gartner, 29% responden mengatakan organisasi mereka telah melakukan deployment dan menggunakan GenAI (Q4 2023), sehingga GenAI menjadi solusi AI yang paling sering dideploy. Walau tidak spesifik tentang agen, temuan ini menunjukkan GenAI kini sudah dikerahkan di banyak perusahaan—menaikkan taruhan untuk kontrol operasional. (Gartner press release (7 Mei 2024))
- McKinsey melaporkan 65% responden mengatakan organisasi mereka menggunakan gen AI secara rutin pada setidaknya satu fungsi bisnis (per laporan State of AI). Penggunaan luas ini menyiratkan banyak organisasi kini menjalankan AI dalam konteks operasional sehari-hari—ladang yang subur bagi celah governance workflow. (McKinsey: The state of AI 2024)
Angka keempat—khususnya relevan untuk masalah “workflow governance”—berasal dari riset AWS tentang scaling. Forbes yang merangkum AWS Generative AI Adoption Index mencatat adanya ekspektasi bahwa untuk setiap 45 eksperimen AI pada 2024, hanya 20 yang diperkirakan mencapai pengguna akhir pada 2025. (Forbes: 10 Key Findings from AWS Generative AI Adoption Index).
Kaitan yang sering hilang dalam diskusi tata kelola adalah mengapa pilot mandek. Dalam varian agenik, “produksi (production)” kini mencakup eksekusi yang terhubung tool, bukan hanya generasi teks. Artinya, organisasi perlu menyelesaikan lapisan integrasi kedua: capability scoping, persetujuan pada saat invocation, serta logging yang memadai untuk pembuktian.
Kebutuhan tersebut tidak selalu cocok dengan pola eksperimen yang sudah dibangun perusahaan untuk use case berbasis chat. Akibatnya, tim kehilangan momentum saat menyadari bahwa tidak bisa memperluas dari ringkasan ke aksi tanpa amanat kontrol yang memadai.
Pada akhirnya, logika adopsi ini kurang tentang model AI, dan lebih tentang kesiapan control plane: ketika workflow bisa menulis ke sistem eksternal, governance menjadi bagian dari pipeline deployment. Di organisasi yang belum membangun pipeline itu, penurunan dari eksperimen ke pengguna akhir kemungkinan lebih tajam—karena “cukup aman” untuk teks keluaran tidak identik dengan “cukup aman” untuk efek samping.
Kegagalan governance umumnya menjelaskan mengapa proyek mengalami plateau: workflow yang bisa melakukan aksi lebih sulit dioperasionalkan daripada sekadar peringkasan yang aman.
Tekanan tata kelola lokal: pengawasan privasi UK dan audit AI
Perusahaan yang merencanakan workflow agenik sering menoleh lebih dulu ke kerangka risiko AI yang umum. Namun, tata kelola praktis makin didorong oleh ekspektasi regulator tentang privasi, audit, dan kepatuhan yang dapat dibuktikan (demonstrable compliance).
Di Inggris, Information Commissioner’s Office (ICO) memperlihatkan dirinya sebagai regulator perlindungan data dengan kerja panduan dan audit yang berfokus pada AI serta data personal. Halaman “About this guidance” ICO menekankan metodologi untuk mengaudit aplikasi AI agar pemrosesan bersifat adil, sah, dan transparan. (ICO: About this guidance)
ICO juga mendokumentasikan kerja intervensi yang melibatkan alat AI dalam rekrutmen. Pada 2024, ICO melaporkan keterlibatan audit berbasis persetujuan (consensual audit engagements) untuk alat penyusunan sumber, penyaringan, dan pemilihan berbasis AI, serta menerbitkan laporan “audit outcomes” yang menguraikan temuan kunci dan pelajaran bagi pengembang maupun perekrut. (ICO: AI tools in recruitment, ICO: intervention into AI recruitment tools leads to better data protection)
Apa kaitannya dengan agen rapat
Agen rapat mungkin tidak membuat keputusan rekrutmen secara langsung, tetapi sering bersentuhan dengan primitif governance yang serupa:
- data personal (informasi peserta, identitas pelanggan, materi terkait pekerjaan),
- pemrosesan lintas sistem (transkrip → basis pengetahuan → tool workflow),
- dan eksekusi aksi (membuat tiket, menyusun email, menjadwalkan tindak lanjut).
Jika perusahaan memandang persoalan “privacy flow graph” secara serius, perusahaan dapat memetakan bagaimana data personal masuk dan bergerak melalui tahapan agenik, lalu menerapkan batasan yang selaras dengan ekspektasi regulator untuk logging dan audit. Riset mengenai privacy flow graphs untuk workflow agenik secara spesifik menargetkan kegagalan pada level pipeline yang bisa disembunyikan oleh keluaran teks final. (AgentSCOPE: Privacy Flow Graph)
Empat jangkar kasus: kegagalan (dan perbaikan) governance yang bisa benar-benar dipelajari
Kerangka tata kelola yang terbaik bukan teoritis—melainkan respons terhadap deployment tertentu. Berikut empat kasus dengan outcome yang terdokumentasi untuk menjelaskan mengapa “workflow UX → workflow governance” bukan pilihan tambahan.
Kasus 1: Custom AI Companion Zoom menciptakan permukaan workflow yang dikendalikan pengguna
Entitas: Zoom
Outcome: Zoom memungkinkan organisasi menyesuaikan AI Companion melalui alat admin dan agen kustom, termasuk template ringkasan rapat dan konfigurasi pengetahuan yang spesifik organisasi.
Garis waktu: Zoom mengumumkan kustomisasi AI Companion dan harga add-on kustom pada materi 2024/2025, termasuk “$12 per pengguna per bulan” dan pratinjau pada ritme peluncuran tersebut. (Zoom: AI Companion 2.0 + custom add-on, Zoom April 2025 innovations)
Relevansi sumber: Ini menjadi pemicu pergeseran model perusahaan pada level produk: jika pengguna dapat membangun agen di sekitar rapat, governance harus memperlakukan desain workflow itu sendiri sebagai proses yang terkontrol. (ITPro, Zoom Custom AI Companion product page)
Kasus 2: ICO Inggris mengaudit alat rekrutmen berbasis AI dan menuntut hasil perlindungan data yang lebih baik
Entitas: Information Commissioner’s Office (ICO), Inggris
Outcome: ICO mendeskripsikan keterlibatan audit berbasis persetujuan dan menerbitkan hasil yang menyoroti temuan kunci serta rekomendasi bagi pengembang dan perekrut yang menggunakan AI dalam rekrutmen.
Garis waktu: ICO mempublikasikan pekerjaan audit rekrutmennya pada 2024, termasuk berita intervensi dan ringkasan keterlibatan audit. (ICO: intervention into AI recruitment tools leads to better data protection, ICO: AI tools in recruitment (audits and overviews))
Relevansi sumber: Kasus ini memperlihatkan bagaimana regulator mengoperasionalkan tata kelola AI: audit, temuan, dan perubahan proses—bukan sekadar janji dokumentasi.
Kasus 3: AI Act Uni Eropa mendorong keterlacakan melalui kewajiban logging
Entitas: Komisi Eropa / kerangka AI Act Uni Eropa
Outcome: Materi regulatori UE menjelaskan keterlacakan lewat logging dan menekankan logging sebagai bagian dari arsitektur kepatuhan; aturan untuk sistem berisiko tinggi serta langkah terkait dijadwalkan dengan tonggak Agustus 2026.
Garis waktu: Materi UE menjelaskan bahwa aturan AI Act untuk sistem berisiko tinggi mulai berlaku pada Agustus 2026, dengan aturan transparansi juga berlaku pada periode tersebut. (European Commission: AI Act policy overview, European Commission: navigating the AI Act FAQ)
Relevansi sumber: Jika perusahaan menjalankan workflow agenik, pendekatan logging dan keterlacakan perlu siap menghadapi arah kepatuhan ini.
Kasus 4: Riset adopsi AWS Generative AI menyoroti kesenjangan scaling yang harus ditutup perusahaan
Entitas: Amazon Web Services (AWS) / studi yang dirangkum Forbes
Outcome: Indeks adopsi menunjukkan adanya kesenjangan antara deployment eksperimen dan peluncuran kepada pengguna akhir.
Garis waktu: Analisis ini merujuk eksperimen pada 2024 dan perkiraan jangkauan pengguna akhir pada 2025. (Forbes: 10 Key Findings From AWS Generative AI Adoption Index)
Relevansi sumber: Untuk governance workflow, ini menjadi peringatan: workflow yang bisa melakukan aksi lebih sulit di-productionize dibanding pilot. Sering kali bottleneck-nya ada pada tata kelola—terutama bila persetujuan pada saat invocation dan logging di level tool tidak tersedia.
Kerangka praktis yang bisa diterapkan perusahaan sekarang
Jika polanya adalah “workflow UX → workflow governance”, maka perusahaan semestinya mengimplementasikan governance sebagai kumpulan primitif operasional—bukan kebijakan statis semata.
Langkah 1: Bangun katalog kapabilitas yang dipetakan ke peran pekerjaan
Mulai dari fungsi peran berbasis pekerjaan (sales ops, koordinator HR, lead dukungan pelanggan) dan definisikan:
- tipe artefak yang diizinkan,
- kategori tool yang diizinkan,
- batasan akses data,
- serta gerbang persetujuan yang wajib.
Ini mengubah “siapa boleh memakai AI” menjadi “kapabilitas apa yang dapat dieksekusi agen”. Profil generative AI NIST mendukung cara pandang siklus hidup tentang bagaimana organisasi memasukkan pertimbangan trustworthiness ke dalam desain dan penggunaan. (NIST: AI RMF Generative AI Profile)
Langkah 2: Modelkan konversi konteks ke artefak sebagai pipeline terkontrol
Perlakukan transkrip rapat dan diskusi sebagai input mentah. Sistem governance semestinya mengharuskan agen terlebih dulu mengubah konteks menjadi artefak terstruktur yang didefinisikan organisasi (action item, keputusan, ringkasan dengan policy tags). Setelah artefak terbentuk barulah pemanggilan tool dapat terjadi dalam batas yang ditetapkan untuk artefak dan peran tersebut.
Ini menutup celah governance workflow agenik: tanpa pipeline terstruktur, perusahaan tidak dapat mengaudit secara andal niat agen dibanding apa yang benar-benar dieksekusi.
Langkah 3: Amankan pemanggilan tool dengan persetujuan “moment-of-action”
Implementasikan persetujuan pada saat pemanggilan tool, bukan setelah generasi narasi. Gating harus mencakup:
- identitas tool dan sistem target,
- objek yang terdampak (tiket, dokumen, record CRM),
- serta pemeriksaan kebijakan spesifik yang dijalankan.
Ini ekspresi operasional dari auditabilitas: jika persetujuan diberlakukan ketika aksi hendak terjadi, maka “pekerjaan agenik” menjadi sesuatu yang benar-benar bisa dikontrol.
Langkah 4: Terapkan observabilitas/keterlacakan seperti perubahan perangkat lunak
Perlu log yang bisa menjawab pertanyaan bergaya audit perangkat lunak:
- versi template workflow mana yang dijalankan,
- artefak konteks apa yang digunakan,
- tool calls apa yang diminta dan disetujui,
- serta outcome apa yang dihasilkan.
Materi UE tentang keterlacakan AI Act melalui logging memberi sinyal kebijakan arah tentang mengapa ini makin tidak bisa ditawar. (European Commission: AI Act policy overview)
Langkah 5: Anggap privasi sebagai persoalan aliran, bukan persoalan teks
Gunakan pendekatan privacy flow graph untuk memetakan perpindahan data di tahap-tahap pipeline agenik. Riset AgentSCOPE merumuskan privacy flow graphs untuk workflow agenik dan menyoroti bahwa pelanggaran dapat muncul bahkan ketika keluaran akhir tampak bersih. (AgentSCOPE: Privacy Flow Graph)
Dalam istilah perusahaan: sistem observabilitas tidak hanya perlu mencatat “apa yang ditulis agen”, tetapi juga “data bergerak ke mana”.
Kesimpulan: tata kelola yang bergerak mengikuti antarmuka—dan tempat memulainya pada kuartal ini
Arah Custom AI Companion Zoom menunjukkan betapa cepatnya workflow UX dapat beralih menjadi eksekusi workflow. Antarmuka membuat agen terasa seperti asisten; perusahaan harus menata mereka seperti sistem yang mampu mengubah sistem lain.
Arsitektur workflow multi-langkah Zoom dan alat kustomisasi admin menegaskan kebutuhan akan scoping, persetujuan pada saat invocation, dan traceability. (Zoom Technical Library, Zoom Custom AI Companion)
Rekomendasi kebijakan (aktor konkret): Kepala Keamanan Informasi (CISO) dan Chief Data Officer (atau pemimpin privasi yang setara) pada perusahaan yang mengadopsi Zoom Custom AI Companion sebaiknya meminta bersama-sama “invocation-gated agent design review” untuk setiap agen kustom yang dapat memanggil tool eksternal—mulai segera. Peninjauan harus memastikan (1) capability scoping berdasarkan peran, (2) batasan konteks-ke-artefak, (3) titik persetujuan pada saat tool invocation, dan (4) log traceability yang cukup untuk peninjauan audit. Ini selaras dengan ekspektasi lifecycle trust yang ditekankan dalam profil risiko generative AI NIST. (NIST: AI RMF Generative AI Profile)
Prakiraan (timeline spesifik): Menjelang Kuartal III 2026, perusahaan kemungkinan besar memperlakukan traceability eksekusi agenik sebagai kontrol operasional inti—karena materi AI Act UE memasukkan penekanan logging/keterlacakan ke dalam jendela kepatuhan Agustus 2026 untuk sistem berisiko tinggi dan kewajiban transparansi. Karena itu, organisasi seharusnya dapat menghasilkan bukti audit level invocation pada Kuartal II 2026 untuk uji internal, tinjauan hukum, dan dokumentasi yang siap untuk kebutuhan regulator. (European Commission: AI Act policy overview, European Commission: navigating the AI Act FAQ)
Perubahan strategisnya sederhana untuk dinyatakan, tetapi sulit dieksekusi: jangan mengatur “teks agen”. Aturlah momen pemanggilan tool yang mengubah rapat menjadi aksi. Jika itu dilakukan dengan benar, workflow UX menjadi mesin produktivitas—dan workflow governance menjadi mesin akuntabilitas.
Referensi
- Zoom users can now create their own custom AI agents - ITPro
- Customize your AI Companion - Zoom
- Zoom introduces AI Companion 2.0 and the ability to customize AI Companion with a new add-on - Zoom News
- Zoom Technical Library: Custom AI Companion explainer - features and architecture
- Stanford HAI: 2025 AI Index Report
- Gartner press release (May 7, 2024): Generative AI now the most frequently deployed AI solution
- McKinsey: The state of AI (2024)
- NIST: Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile
- AgentSCOPE: Evaluating Contextual Privacy Across Agentic Workflows (Privacy Flow Graph) - arXiv
- European Commission: AI Act policy overview (logging, traceability, timelines)
- European Commission: Navigating the AI Act FAQ
- ICO: About this guidance (AI and data protection)
- ICO: AI tools in recruitment (audits and overviews)
- ICO: intervention into AI recruitment tools leads to better data protection for job seekers
- Forbes: 10 Key Findings From AWS Generative AI Adoption Index