Kecerdasan Buatan (AI) telah berkembang dengan pesat, mendorong pemerintah di seluruh dunia untuk membentuk kerangka regulasi guna mengelola dampak sosialnya. Artikel ini memberikan analisis komparatif tentang legislasi AI terkini di Amerika Serikat, Uni Eropa, dan Asia, menyoroti berbagai pendekatan dalam tata kelola AI.
Amerika Serikat: Inisiatif Tingkat Negara
Di AS, regulasi AI sebagian besar didorong oleh negara bagian, dengan beberapa negara bagian memberlakukan undang-undang untuk mengatur pengembangan dan penerapan AI.
Undang-Undang Inovasi Aman dan Terjamin untuk Model Kecerdasan Buatan Perbatasan California
Pada tahun 2024, California memperkenalkan Undang-Undang Inovasi Aman dan Terjamin untuk Model Kecerdasan Buatan Perbatasan, yang ditulis oleh Senator Negara Bagian Scott Wiener. RUU ini bertujuan untuk menerapkan langkah-langkah keselamatan bagi model AI yang canggih. Namun, pada 29 September 2024, Gubernur Gavin Newsom memveto RUU tersebut, mengutip kekhawatiran terkait kerangka regulasinya, yang hanya menyasar model AI besar berdasarkan ukuran komputasi, yang berpotensi mengabaikan model-model yang lebih kecil yang mungkin juga menghadirkan risiko signifikan. Gubernur Newsom menekankan perlunya regulasi yang dapat beradaptasi dalam lanskap AI yang berkembang cepat. (en.wikipedia.org)
Undang-Undang Tata Kelola Kecerdasan Buatan Bertanggung Jawab Texas (TRAIGA)
Pada Juni 2025, Gubernur Texas Greg Abbott menandatangani Undang-Undang Tata Kelola Kecerdasan Buatan Bertanggung Jawab Texas (TRAIGA) menjadi undang-undang, efektif mulai 1 Januari 2026. Legislasi ini berlaku bagi para pengembang dan pelaksana sistem AI yang digunakan oleh penduduk Texas dan melarang pengembangan dan penerapan sistem AI yang dimaksudkan untuk memicu kekerasan, diri sendiri yang merugikan, diskriminasi ilegal, dan kegiatan ilegal lainnya. (en.wikipedia.org)
Uni Eropa: Undang-Undang Kecerdasan Buatan
Uni Eropa telah mengambil pendekatan komprehensif terhadap regulasi AI dengan penerapan Undang-Undang Kecerdasan Buatan (AI Act) pada tahun 2024. AI Act menetapkan kerangka berbasis risiko, mengategorikan sistem AI berdasarkan potensi risikonya terhadap hak asasi manusia dan keselamatan. Undang-undang ini memberlakukan persyaratan ketat pada aplikasi AI berisiko tinggi, termasuk penilaian kesesuaian yang wajib, kewajiban transparansi, dan langkah-langkah pengawasan manusia. Undang-undang ini juga memperkenalkan ketentuan untuk pembentukan otoritas pengawas nasional guna memastikan kepatuhan dan penegakan. (en.wikipedia.org)
Asia: Tata Kelola AI China
China telah proaktif dalam memajukan tata kelola AI melalui kombinasi undang-undang, regulasi administratif, dan instrumen kebijakan. Pada Agustus 2025, China meluncurkan Rencana Aksi "AI Plus", yang bertujuan untuk mengintegrasikan AI ke dalam berbagai sektor, termasuk teknologi, industri, konsumsi, layanan publik, tata kelola, dan kerjasama internasional. Rencana ini menggariskan peta jalan tiga langkah, dengan tahap akhir menargetkan tahun 2030, membayangkan AI sepenuhnya memberdayakan perkembangan berkualitas tinggi. Selain itu, pada Oktober 2025, China mengubah Undang-Undang Keamanan Siber untuk mempromosikan pengembangan AI yang aman, menandai fase baru pematangan regulasi. (chambers.com)
Analisis Komparatif
Pendekatan regulasi AI di AS, UE, dan Asia mencerminkan prioritas dan model tata kelola yang berbeda.
Regulasi Berbasis Risiko vs. Regulasi Kontekstual
Undang-Undang AI UE menjadi contoh pendekatan regulasi berbasis risiko, memberlakukan persyaratan ketat pada aplikasi AI berisiko tinggi untuk mengurangi potensi bahaya. Sebaliknya, AS mengadopsi pendekatan yang lebih spesifik kontekstual, dengan regulasi tingkat negara seperti TRAIGA yang berfokus pada pelarangan sistem AI yang memicu harm atau diskriminasi ilegal. Rencana Aksi "AI Plus" China menunjukkan strategi yang dipandu negara, bertujuan untuk mengintegrasikan AI di berbagai sektor sambil mempromosikan pengembangan yang aman.
Kerjasama Internasional dan Standardisasi
Undang-Undang AI UE dan Rencana Aksi "AI Plus" China menekankan kerjasama internasional dan standardisasi dalam tata kelola AI. Undang-undang UE mencakup ketentuan untuk pembentukan otoritas pengawas nasional, sementara rencana China menggariskan peta jalan untuk integrasi AI dan kerjasama internasional. Pendekatan AS, khususnya di tingkat negara, telah lebih terfragmentasi, dengan regulasi yang bervariasi di antara negara bagian dan kurangnya kerangka federal yang terpadu.
Kesimpulan
Lanskap global regulasi AI sangat beragam, dengan setiap wilayah mengadopsi kerangka yang sesuai dengan prioritas dan struktur tata kelolanya yang unik. Pendekatan komprehensif, berbasis risiko UE, strategi dipandu negara China, dan inisiatif yang didorong negara bagian AS memperlihatkan berbagai jalur dalam mengelola dampak sosial AI. Seiring berlanjutnya evolusi AI, dialog internasional dan kerjasama yang berkelanjutan akan menjadi penting untuk menyelaraskan regulasi dan memastikan pengembangan AI yang bertanggung jawab di seluruh dunia.