1) Masalah audit bukan “model”—melainkan jejak bukti yang hilang
Tim tata kelola dapat melakukan penilaian risiko, memberi tanda persetujuan pada model card, dan tetap gagal dalam audit bila organisasi tidak mampu membuktikan—pada saat insiden—apa yang benar-benar berubah di seluruh tumpukan AI. Kebenaran yang tak nyaman: “tata kelola AI” sering berperilaku seperti map kebijakan. Ia merapikan dokumentasi, tetapi tidak menghasilkan bukti tingkat regulator-grade.
Lapisan infrastruktur membuat celah ini terasa jelas. Demonstrasi Intel tentang Optical Compute Interconnect (OCI) dirancang untuk komunikasi pusat data AI berkecepatan tinggi, dengan dukungan hingga 4 terabits per detik (Tbps) transfer data dua arah pada implementasi awalnya. (Intel press release) Akselerasi arsitektural semacam itu dapat menurunkan latensi dan menaikkan throughput—namun sekaligus membuat “apa yang terjadi” lebih sulit direkonstruksi. Pasalnya, kegagalan (atau penyimpangan yang relevan dengan kebijakan) dapat bermula dari optik, dari orkestrasi pada level node, atau dari titik serah antara penjadwalan dan deployment.
Karena itu, pertanyaan tata kelola menjadi bersifat struktural: mampukah organisasi menghasilkan audit evidence pipeline yang menghubungkan akuntabilitas insiden dengan telemetri & kontrol secara end-to-end? Bila bukti putus di batas optical interconnect—atau di batas cluster scheduler—fungsi manajemen risiko perusahaan hanya memperoleh narasi, bukan bukti.
2) OCI sebagai uji berat tata kelola: di mana pipa bukti biasanya gagal
Optical Compute Interconnect (OCI) bukan sekadar kabel yang lebih cepat. OCI adalah permukaan kontrol baru yang melintasi lapisan fisik dan logis: chiplet, optical I/O, perilaku jaringan pusat data, dan—yang krusial—perangkat lunak yang menentukan di mana workload dijalankan. Intel menekankan bahwa OCI terintegrasi dengan platform Intel CPU dan menggunakan “live data” dalam demonstrasinya. Artinya, keadaan yang relevan dengan tata kelola mencakup perilaku komputasi dan interkoneksi, bukan hanya artefak ML. (Intel press release)
“Lintas komputasi dan interkoneksi” inilah yang membuat sebagian besar pipa bukti berantakan—bukan karena log tidak ada, melainkan karena bukti itu tidak bisa dikorelasikan. Pada praktiknya, tim tata kelola bisa mengumpulkan telemetri yang kaya dari server aplikasi dan server model, tetapi tetap gagal audit karena bukti yang diperlukan saat insiden adalah cross-layer join:
- Mismatch waktu masuk (admission-time) vs waktu berjalan (run-time): keputusan scheduler mungkin dicatat setelah peristiwa, sementara insiden bergantung pada apa yang diyakini sistem saat admission (“kesehatan node berada pada kelas X”, “kondisi link adalah Y”, “konstraint penempatan terpenuhi”). Ketika sumber penanda waktu berbeda (drift UTC, jam tidak tersinkron, atau domain timestamp yang terpisah), jendela korelasi berubah dari bukti menjadi tekaan.
- Drift unit akuntansi: telemetri infrastruktur bisa dipancarkan per-link atau per-pasangan antrian, sedangkan kontrol tata kelola didefinisikan per-job, per-revisi model, atau per gate deployment. Tanpa pemetaan eksplisit (kontrol receipts), pengulas insiden tidak bisa memastikan apakah “kontrol bekerja sebagaimana dirancang” untuk workload spesifik yang memicu peristiwa.
- Kesenjangan cakupan observability di batas sistem: ketika fast paths diperkenalkan, sistem sering kali melewati jalur kontrol/telemetri standar—terutama bila handoff optik ditangani lewat firmware atau penanganan kesalahan terjadi di bawah lapisan yang terlihat oleh scheduler. Artefak tata kelola kemudian punya penjelasan yang masuk akal (“optik gagal”), tetapi tidak menyajikan bukti kapan kegagalan itu memengaruhi keputusan gate yang mana.
Semua ini penting karena operasi AI modern sudah berupa rangkaian gate: kesiapan perangkat keras → penjadwalan cluster → pemilihan tahap data/model → persetujuan deployment → penegakan runtime. Strategi tata kelola yang menganggap gate-gate tersebut sebagai unit independen hampir pasti kandas di sambungan (seam)—bukan pada ada/tidaknya telemetri, melainkan pada apakah telemetri dapat dibuktikan untuk menjawab satu pertanyaan: workload persis mana dan artefak persis mana yang disetujui pada kondisi batas yang berlaku saat keputusan admission diambil?
Kerangka Kerja Manajemen Risiko AI NIST (AI RMF 1.0) menekankan bahwa AI yang tepercaya mensyaratkan manajemen risiko tertanam dalam desain, pengembangan, penggunaan, dan evaluasi—bukan sekadar pernyataan pasca-peristiwa. (NIST AI RMF 1.0 landing page) Ketika tumpukan memperkenalkan “fast paths” (seperti high-bandwidth optical interconnect), kebutuhan auditabilitas melebar dari “apakah memantau?” menjadi “apakah memantau dengan kunci bukti yang sama yang digunakan kontrol saat keputusan dibuat?” Verifikasi kontrol berubah menjadi persoalan desain korelasi: apakah pengenal (identifiers) konsisten di telemetri chip/platform, event penjadwalan, dan persetujuan gate deployment, serta apakah retensinya cukup lama untuk bertahan menghadapi triase insiden.
3) “Bukti audit” adalah keluaran rekayasa: desain telemetri & kontrol sebagai satu sistem
Strategi tata kelola yang praktis mengubah posisi “bukti audit” menjadi artefak produksi. Alih-alih bertanya, “Apakah dokumentasi tersedia?”, tim bertanya, “Bisakah menghasilkan bukti yang dapat diverifikasi mesin untuk setiap kontrol material pada saat insiden?”
Di sini, bahasa standar menjadi dapat dipraktikkan. Misalnya, ISO/IEC 42001:2023 (AI Management System) memperlakukan monitoring/pengukuran dan audit internal sebagai bagian dari sistem berkelanjutan, yang mengharuskan bukti terdokumentasi atas hasil. (ISO/IEC 42001 text (download)) Jika bukti tidak dihasilkan secara berkesinambungan dan ditautkan pada keputusan, bukti itu akan menurun nilainya—terutama ketika infrastruktur terus berkembang.
Rancangan pipa bukti yang konkret
Berikut bentuk end-to-end yang dapat dibangun tim tata kelola. (Tujuannya bukan “mencatat semuanya”; tujuannya adalah menghasilkan bukti yang menopang verifikasi kontrol.)
- Kait telemetri pada batas-batas infrastruktur
- Indikator kesehatan optical interconnect (perubahan link state, error counters bila tersedia)
- Keputusan cluster scheduling (penempatan job, hasil queueing, dan keputusan admission controller)
- Hasil gate deployment model (ID persetujuan, pemeriksaan kebijakan, dan ambang evaluasi)
- Kontrol dipetakan ke telemetri
- Setiap kontrol memiliki verifier: “Sinyal apa yang membuktikan kontrol bekerja sesuai rancangan?”
- Paket bukti
- Bukti dibundel dengan referensi yang bersifat tak dapat diubah (immutable)—berupa timestamp, artifact hashes, dan correlation IDs—agar fungsi manajemen risiko perusahaan dapat menjalankan ulang “rantai kepemilikan (chain of custody)” saat peninjauan insiden.
OpenTelemetry juga memberi arah lewat GenAI semantic conventions sebagai bagian dari upaya menstandarkan bentuk telemetri. Proyek OpenTelemetry memublikasikan spesifikasi untuk generative AI semantic conventions (termasuk event dan spans) guna menstandarkan telemetri alur kerja AI agar dapat dianalisis secara konsisten lintas sistem. (OpenTelemetry GenAI semantic conventions docs)
4) Akuntabilitas insiden gagal ketika penjadwalan cluster dan gate deployment tidak dikorelasikan
Sebagian besar insiden tata kelola bukan sekadar peristiwa “berbasis model”. Insiden adalah peristiwa siklus hidup. Deployment yang buruk, artefak yang terkorupsi, runtime yang keliru konfigurasi, atau anomali yang relevan kebijakan sering kali muncul dari lapisan orkestrasi: scheduler menempatkan workload secara berbeda, pemeriksaan admission dilewati, atau gate rollout menerima artefak yang tidak memenuhi syarat yang diwajibkan.
NIST AI RMF 1.0 menyediakan struktur tata kelola (fungsi yang mencakup pemetaan, pengukuran, pengelolaan, serta proses tata kelola) untuk memperbaiki penanganan risiko lintas siklus hidup. (NIST AI RMF 1.0 landing page) Namun kerangka itu tetap memerlukan pilihan implementasi: bagaimana mengukur dan memantau dengan cara yang menghasilkan bukti?
Sambungan penjadwalan-ke-model membutuhkan “control receipts”
Agar akuntabilitas dapat diverifikasi, tim perlu menerapkan “control receipts” yang menyertai tindakan penjadwalan dan deployment—receipts yang dapat dicek otomatis, bukan sekadar disimpan.
Paling tidak, sebuah control receipt perlu memuat empat bidang yang mendukung verifikasi ulang:
- (1) Identitas keputusan: ID kontrol-keputusan yang stabil (misalnya
admission_decision_id,deployment_approval_id) yang dihasilkan tepat pada titik keputusan. - (2) Referensi bukti: penunjuk ke segmen telemetri yang digunakan kontrol (misalnya interconnect health snapshot ID, scheduler admission controller trace ID), bukan bergantung pada manusia untuk “menemukan log yang tepat”.
- (3) Kunci korelasi: pengenal workload yang bertahan di seluruh pipa (
job_id,model_artifact_hash,runtime_config_hash, dan bila berlakucluster_version/firmware_version). - (4) Semantik waktu: domain timestamp yang eksplisit dan jendela korelasi yang digunakan (misalnya “kontrol dievaluasi menggunakan T0..T0+30s dalam waktu monotonik yang dikonversi ke UTC”). Pengulas insiden perlu tahu apakah telemetri bisa berubah di antara keputusan dan tindakan.
Ini mengubah akuntabilitas menjadi kueri yang dapat diulang: “Diberikan ID persetujuan deployment untuk artefak model X pada waktu T, tampilkan kelas kesehatan interkoneksi serta constraint admission scheduler yang berlaku saat gate menyetujui.” Jika receipts tidak bisa dijoin otomatis, organisasi pada dasarnya meminta auditor melakukan investigasi best-effort, bukan verifikasi kontrol.
Logika sistem ISO/IEC 42001—monitoring berkelanjutan dan audit internal dengan bukti terdokumentasi—mendukung pendekatan rekayasa ini: bukti harus tersedia ketika dibutuhkan, bukan saat auditor meminta kemudian. (ISO/IEC 42001 download)
5) Realitas tata kelola lokal: regulator Inggris secara eksplisit mendorong audit trail untuk akuntabilitas AI
Di Inggris, regulator menjabarkan tata kelola dalam istilah audit trail dan pencatatan akses. Ini sinyal kuat bahwa pipa bukti harus ada dalam praktik nyata—bukan hanya dalam artefak kepatuhan internal. Information Commissioner’s Office (ICO) memublikasikan panduan “governance and accountability in AI”, termasuk perlunya membangun audit trail komprehensif untuk mencatat dan memantau akses ke dataset. (ICO: Governance and accountability in AI)
ICO juga menambahkan bahwa panduan dapat diperbarui karena perubahan hukum (ICO secara eksplisit menyoroti “Data (Use and Access) Act” yang mulai diberlakukan pada 19 Juni 2025 dan menyatakan panduan sedang ditinjau). (ICO guidance page) Bagi tim tata kelola, pelajaran praktisnya sederhana: bila pipa bukti tidak mencakup bagaimana data dan keputusan dikelola di lapisan operasional, perubahan hukum akan merusak narasi audit.
Dengan demikian, strategi tata kelola harus tahan terhadap perubahan. Itu berarti merancang pembuatan bukti agar tetap memetakan kontrol ke telemetri, meski kebijakan, jadwal deployment, dan versi infrastruktur berubah.
6) Kait tata kelola dunia nyata: dua kasus ketika bukti infrastruktur/proses menentukan hasil
Agar berpindah dari teori menuju akuntabilitas sistem, tata kelola memerlukan case anchors.
Kasus 1: Demonstrasi Intel OCI memformalkan batas infrastruktur baru untuk bukti tata kelola
Entitas: Intel
Apa yang terjadi: Intel mendemonstrasikan optical compute interconnect (OCI) yang sepenuhnya terintegrasi dengan chiplet, dipaket bersama CPU Intel, serta menjalankan data langsung (live data). Implementasi OCI pertama mendukung hingga 4 Tbps transfer data dua arah. (Intel press release)
Garis waktu: rilis pers menautkan demonstrasi ke OFC 2024 dan memaparkan rincian implementasi. (Intel press release)
Implikasi tata kelola: ketika optical interconnect menjadi bagian dari platform komputasi, investigasi insiden memerlukan telemetri yang mencakup batas interkoneksi. Tanpa itu, “tata kelola” tidak bisa merekonstruksi kondisi infrastruktur saat sebuah gate deployment tersulut.
Kasus 2: OpenTelemetry menstandarkan bentuk telemetri untuk observabilitas AI—sebagai pengungkit pipa bukti audit
Entitas: OpenTelemetry
Apa yang terjadi: OpenTelemetry menerbitkan dokumen spesifikasi untuk GenAI semantic conventions, menyediakan kosakata telemetri standar yang ditujukan untuk meningkatkan pelacakan dan analisis lintas alur kerja AI. (OpenTelemetry GenAI semantic conventions)
Garis waktu: dokumen-dokumen ini aktif dan dipelihara sebagai bagian proyek OpenTelemetry; ini mencerminkan pergeseran berkelanjutan dari pencatatan ad-hoc menuju instrumentasi standar dan terstruktur. (OpenTelemetry docs)
Implikasi tata kelola: tanpa semantik telemetri yang distandardisasi, pipa bukti menjadi bespoke. Dengan semantik yang standar, tim manajemen risiko dapat memverifikasi kontrol secara konsisten lintas cluster, model, dan deployment—terutama saat akuntabilitas insiden dituntut.
Keduanya bukan “kegagalan tata kelola” semata; keduanya mendefinisikan prasyarat infrastruktur dan telemetri agar tata kelola dapat berdiri di bawah pengawasan.
7) Sinyal kuantitatif tata kelola: lima angka yang menerjemahkan ke desain kontrol
Tim tata kelola membutuhkan sasaran yang tegas. Angka-angka berikut adalah jenis parameter yang perlu diubah menjadi spesifikasi kontrol (retensi, cakupan, waktu korelasi, dan interval verifikasi).
-
Transfer dua arah hingga 4 Tbps pada implementasi OCI Intel yang pertama (tahun: 2024)
Angka ini mendefinisikan “skala” yang menuntut telemetri infrastruktur dan korelasi bukti bekerja pada kapasitas tersebut. (Intel press release) -
NIST AI RMF 1.0 dipublikasikan sebagai kerangka kerja manajemen risiko AI formal (versi 1.0) untuk penggunaan sukarela (tahun: 2023)
Strategi tata kelola perlu memetakan control receipts ke maksud siklus hidup kerangka tersebut. (NIST AI RMF 1.0 page) -
ISO/IEC 42001:2023 mensyaratkan monitoring/pengukuran dan audit internal dengan bukti terdokumentasi atas hasil (tahun: 2023)
Ini menjadi basis sistem untuk “bukti berkelanjutan”, bukan sekadar pekerjaan administratif berkala. (ISO/IEC 42001 download) -
Panduan ICO memuat pemicu legal: Data (Use and Access) Act pada 19 Juni 2025 (tahun: 2025)
Pipa bukti tata kelola harus tetap valid melalui perubahan hukum yang memengaruhi penggunaan/akses dataset. (ICO guidance page) -
OpenTelemetry GenAI semantic conventions menstandarkan bentuk telemetri untuk observabilitas AI (tahun: berlangsung/terpelihara; terdokumentasi dalam spesifikasi saat ini)
Untuk desain tata kelola, ini membantu menentukan “control verifiers” dalam taksonomi yang konsisten. (OpenTelemetry GenAI semantic conventions)
8) Konsensus ahli: tata kelola adalah arsitektur control-plane, bukan lapisan kebijakan semata
Arah dari standar dan panduan yang berbeda konsisten: tata kelola bekerja bila ia menjadi bagian dari execution fabric. NIST membingkai AI RMF sebagai cara memasukkan pertimbangan trustworthiness ke dalam desain, pengembangan, penggunaan, dan evaluasi AI—bukan perlakuan “kepercayaan” sebagai pesan eksternal. (NIST AI RMF 1.0 page)
OECD juga membedakan transparansi dan akuntabilitas sebagai konsep yang saling melengkapi, dengan penekanan bahwa akuntabilitas bergantung pada pemantauan dan manajemen risiko berkelanjutan, bukan pada pengungkapan satu kali. (OECD: Governing with Artificial Intelligence)
Sementara itu, pendekatan OpenTelemetry terhadap semantic conventions menunjukkan di mana “bukti audit” bisa dibuat lebih portabel: jika telemetri mengikuti kosakata standar, pipa bukti dapat diaudit lintas batas organisasi dan perubahan sistem—suatu sifat yang esensial ketika optical interconnect dan infrastruktur cluster berubah lebih cepat daripada proses tata kelola.
9) Bagaimana organisasi menerapkan telemetri & kontrol di seluruh tumpukan AI (chip → optik → penjadwalan → gate)
Strategi tata kelola yang dapat dijalankan dapat dirumuskan sebagai berikut:
- Tentukan titik kontrol tata kelola
- Cek kesiapan admission interkoneksi (kelas telemetri kesehatan optik/jaringan)
- Admission dan constraint placement cluster scheduler (scheduling receipts)
- Pemeriksaan gate deployment (kriteria penerimaan artefak model dan evaluation receipts)
- Standarisasi semantik telemetri
- Gunakan OpenTelemetry GenAI semantic conventions untuk telemetri alur kerja AI agar kontrol dapat menafsirkan event secara konsisten. (OpenTelemetry GenAI semantic conventions)
- Anggap pipa bukti sebagai sistem produksi
- Pembuatan bukti harus dipantau seperti pipeline kritis lain:
- kebijakan retensi
- cakupan korelasi
- mode kegagalan (“apa yang terjadi bila telemetri tidak tersedia?”)
- Pembuatan bukti harus dipantau seperti pipeline kritis lain:
- Buat akuntabilitas insiden dapat diulang
- Saat insiden terjadi, fungsi manajemen risiko perusahaan harus mampu:
- mencantumkan kontrol yang diharapkan
- mencantumkan sinyal bukti yang benar-benar diproduksi
- menjelaskan celah (gangguan telemetri, drift instrumentasi, atau misconfig kontrol)
- Saat insiden terjadi, fungsi manajemen risiko perusahaan harus mampu:
Di sinilah tata kelola sistem end-to-end mengungguli “kepatuhan berbasis dokumen”. Tanpa telemetri dan kontrol yang saling berkorelasi, insiden menjadi kotak hitam—dan kotak hitam tidak memenuhi kebutuhan bukti audit.
10) Kesimpulan: regulator dan tim risiko akan menuntut bukti end-to-end—mulai instrumen sekarang
Tata kelola AI sedang memasuki era bukti. Strategi yang paling dapat dipertahankan tidak hanya menghasilkan dokumentasi; strategi itu menghasilkan telemetri yang terhubung ke kontrol lintas tumpukan AI—terutama pada batas infrastruktur tempat kegagalan sering berasal.
Rekomendasi kebijakan yang konkret (apa yang harus dilakukan)
Pemerintah Inggris, melalui ICO dan pemangku kepentingan assurance yang relevan, seharusnya mewajibkan klausul “auditability-by-design” dalam kontrak pengadaan dan penempatan infrastruktur cluster AI—secara spesifik, komitmen kontraktual untuk menyediakan cakupan telemetri dan korelasi bukti lintas (1) sinyal kesehatan interkoneksi, (2) keputusan penjadwalan cluster, dan (3) keputusan gate deployment. Ini sejalan dengan penekanan ICO pada audit trail komprehensif dan pencatatan akses dataset untuk tata kelola serta akuntabilitas AI. (ICO: Governance and accountability in AI)
Prakiraan ke depan (dengan timeline)
Pada Q4 2027, perusahaan yang menempatkan infrastruktur cluster AI yang menggunakan teknologi interkoneksi berkapasitas tinggi (termasuk pendekatan optical interconnect seperti arsitektur OCI Intel) akan diharapkan—oleh fungsi risiko internal mereka dan oleh proses assurance eksternal—untuk mendemonstrasikan korelasi end-to-end antara telemetri kondisi infrastruktur dan hasil gate deployment model sebagai bagian dari audit evidence packaging.
Dasar praktis untuk prakiraan ini bukan sekadar “arah perkembangan”, melainkan mekanik pemeriksaan audit: tim assurance akan meminta (a) kelengkapan bukti (apakah sinyal yang diwajibkan dihasilkan untuk keputusan spesifik?), (b) integritas bukti (apakah referensi yang disimpan bisa dijoin ulang ke artefak keputusan?), dan (c) ketepatan waktu bukti (apakah sistem bisa berubah antara snapshot telemetri dan keputusan gate?). Pertanyaan-pertanyaan ini memetakan langsung ke panduan siklus hidup dari NIST AI RMF 1.0, ekspektasi bukti sistem dalam ISO/IEC 42001:2023, serta penekanan regulator pada audit trail dan tata kelola akses yang dapat ditelusuri dalam panduan ICO. (NIST AI RMF 1.0 page, ISO/IEC 42001 download, ICO guidance page)
Mulai instrumen sekarang dengan menjalankan “receipts audit” sebelum siklus pengadaan berikutnya: pilih satu pipeline pelatihan atau inferensi yang representatif, tetapkan titik kontrol pada admission optik/jaringan, admission scheduler, dan persetujuan gate deployment, lalu uji apakah organisasi dapat menghasilkan narasi insiden yang dapat diulang menggunakan machine-checkable joins (ID keputusan → referensi telemetri → model artifact hashes). Jika tugas itu tidak dapat dijawab dalam waktu seminggu, organisasi akan kesulitan di bawah tekanan insiden nanti—ketika jendela korelasi menyempit, sistem melakukan failover, dan telemetri batas yang dibutuhkan mungkin tidak lagi tersedia.
Intinya: tata kelola tidak bisa “diselesaikan” di lapisan model. Tata kelola harus direkayasa sebagai control-plane yang secara berkelanjutan memproduksi bukti—hingga tepat saat sebuah model diizinkan untuk berjalan.
Referensi
- Intel Demonstrates First Fully Integrated Optical I/O Chiplet - Intel Corporation
- Artificial Intelligence Risk Management Framework (AI RMF 1.0) - NIST
- ISO/IEC 42001:2023 (download)
- Governance and accountability in AI - ICO
- Semantic conventions for generative AI systems - OpenTelemetry
- Governing with Artificial Intelligence (OECD) - Enablers, guardrails and engagement