Kerangka kerja Regulasi AI di Inggris

Kerangka kerja Regulasi AI di Inggris

Kerangka kerja Regulasi AI di Inggris – Pemerintah Inggris telah mengadopsi kerangka kerja lintas sektor dan berbasis kinerja untuk peraturan AI berdasarkan lima prinsip utama. Hal ini mencakup keselamatan, keamanan dan ketahanan, transparansi dan penjelasan yang memadai, keadilan, akuntabilitas dan tata kelola, serta tantangan dan kompensasi.

 

Kerangka kerja Regulasi AI di Inggris

Kerangka kerja Regulasi AI di Inggris

lxnews – Regulator menerapkan kerangka kerja ini di wilayah/yurisdiksi mereka dengan menegakkan hukum yang relevan. memiliki dan menerbitkan panduan peraturan tambahan. Beberapa regulator akan merilis strategi AI tahunan mereka pada tanggal 30 April, yang memberikan arahan yang sangat dibutuhkan bagi perusahaan.

Kerangka kerja dan pengoperasian instrumen sekunder juga dilengkapi dengan langkah-langkah keamanan dan transparansi sukarela untuk pengembang model dan sistem AI yang efektif masing-masing regulator.

Peraturan tersebut belum dikodifikasikan menjadi undang-undang pada tahap ini, namun Pemerintah mengantisipasi bahwa tindakan legislatif yang ditargetkan akan diperlukan di masa depan. Langkah ini mengatasi kesenjangan dalam kerangka peraturan saat ini, khususnya mengenai risiko yang ditimbulkan oleh AI untuk tujuan umum yang kompleks dan aktor-aktor utama yang terlibat dalam pengembangannya.

Organisasi harus mempersiapkan peningkatan regulasi AI di tahun mendatang, termasuk panduan dan pengumpulan informasi dan penegakan hukum. Perusahaan multinasional pasti akan memiliki perbedaan peraturan.

Ringkasan

Pada tanggal 6 Februari 2024, Pemerintah Inggris mengumumkan tanggapannya yang telah lama ditunggu-tunggu terhadap konsultasi Buku Putih tahun lalu mengenai regulasi kecerdasan buatan (AI). Seperti yang diharapkan, pendekatan pemerintah yang “pro-inovasi”, yang dipimpin oleh Departemen Sains, Inovasi dan Teknologi (DSIT), sebagian besar tidak berubah dari usulan awal.

Keputusan ini bersifat prinsip, bukan hukum dan bersifat lintas sektoral. . Tujuannya adalah untuk menyeimbangkan inovasi dan keselamatan dengan menerapkan kerangka peraturan yang netral terhadap teknologi pada kecerdasan buatan. Inggris menyadari bahwa tindakan legislatif pada akhirnya diperlukan, khususnya terkait dengan sistem General Purpose Artificial Intelligence (GPAI). Namun, mereka mengatakan bahwa hal ini masih terlalu dini dan risiko serta tantangan AI, kesenjangan peraturan, dan cara mengatasinya perlu dipahami dengan lebih baik.

Pendekatan ini berbeda dari yurisdiksi lain, seperti UE dan Amerika Serikat, yang telah mengadopsi lebih banyak langkah-langkah peraturan perundang-undangan. Hal ini menunjukkan bahwa, meskipun ada perjanjian kerja sama internasional, kemungkinan terdapat perbedaan dalam regulasi global mengenai AI.

Bagaimana Inggris mendefinisikan AI?

Tidak ada definisi resmi mengenai AI. Sebaliknya, penafsiran sektoral tertentu dipandu oleh pendekatan berbasis hasil yang berfokus pada dua fitur utama – adaptasi 1 dan otonomi 2. Regulator Inggris seperti Ofcom atau Financial Conduct Authority (FCA) dapat menafsirkan adaptasi dan otonomi. membuat definisi spesifik. jika itu berguna. Hal ini meningkatkan risiko bahwa penafsiran yang berbeda oleh otoritas pembuat peraturan dapat menciptakan ketidakpastian peraturan bagi perusahaan yang beroperasi di sektor yang berbeda. Untuk mengatasi masalah ini, pemerintah berencana untuk membentuk entitas pusat untuk mengoordinasikan koordinasi antar badan pengatur, yang dibahas lebih detail di bawah.

Membedakan berbagai jenis sistem AI canggih

Meskipun definisi umum AI tetap tidak berubah, definisi akhir Kerangka kerja ini membedakan dan memberikan titik awal untuk tiga sistem AI yang paling efektif untuk definisi tipe: GPAI berkekuatan tinggi, AI sempit berkekuatan tinggi, dan AI agen (Gambar 1). Model-model ini sering kali diintegrasikan dengan berbagai sistem hilir kecerdasan buatan 3 . Model bahasa besar yang mendukung banyak sistem AI generatif adalah contoh bagus dari GPAI berperforma tinggi.

Lima prinsip di balik kerangka kerja tersebut

Kerangka kerja AI akhir Inggris berisi lima prinsip lintas sektoral yang dapat ditafsirkan dan diterapkan oleh regulator. di yurisdiksinya, untuk memandu desain, pengembangan, dan penggunaan kecerdasan buatan yang bertanggung jawab.

1. Memperkuat otoritas dan kerangka peraturan yang ada

Seperti yang diharapkan, Inggris tidak bermaksud untuk memperkenalkan regulator AI baru untuk mengawasi penerapan kerangka tersebut. Sebaliknya, regulator yang ada seperti Information Commissioner’s Office (ICO), Ofcom dan FCA telah diminta untuk menerapkan lima prinsip dalam regulasi dan pengawasan AI di wilayahnya masing-masing. Regulator diharapkan mengambil pendekatan yang proporsional dan berbasis konteks, dengan menggunakan ketentuan hukum yang ada.

 

Baca juga : Mempertahankan Kepemimpinan Inggris Dalam Teknologi AI

 

Pendekatan dan panduan yang tidak wajib bagi regulator

Meskipun perannya sangat penting, regulator menerapkan prinsip-prinsip ini dengan baik dan persyaratannya tidak sesuai dengan undang-undang . mengikat Pemerintah menetapkan bahwa badan pengatur harus mempunyai kewajiban hukum untuk mematuhi prinsip-prinsip kerangka kerja tersebut. Keputusan dan waktu ini akan dipengaruhi oleh rencana AI strategis regulator dan usulan peninjauan kewenangan dan otoritas regulasi oleh fungsi pusat, seperti yang kami jelaskan di bawah.

Regulator diminta untuk mempublikasikan tindakan mereka. Strategi AI April 2024

Namun, tidak ada keraguan bahwa Pemerintah mengharapkan setiap regulator mengambil tindakan cepat untuk menerapkan kerangka peraturan AI di sektornya masing-masing. Harapan-harapan ini dituangkan dalam surat-surat yang dikirim DSIT ke beberapa regulator utama yang meminta mereka untuk mempublikasikan pendekatan strategis mereka terhadap peraturan AI pada tanggal 30 April 2024.

Pendanaan tambahan untuk meningkatkan kapasitas peraturan

Merespons perubahan lanskap teknologi Bergerak cepat terus menjadi tantangan bagi regulator dan perusahaan. Meskipun AI tidak diragukan lagi merupakan prioritas, mempublikasikan rencana strategisnya (pada akhir April) dan panduan AI (dalam 12 bulan) dapat menjadi tantangan bagi beberapa regulator. Sebagai pengakuan, DSIT telah mengumumkan hibah sebesar £10 juta bagi regulator untuk menerapkan alat, sumber daya, dan keahlian yang diperlukan untuk beradaptasi dan merespons AI.

2. Fitur Utama yang Mendukung Kemampuan dan Koordinasi Regulasi

Karena dampak AI yang luas, tidak ada satu regulator pun yang dapat sepenuhnya mengatasi peluang dan risiko teknologi AI sendirian. Untuk mengatasi hal ini, pemerintah telah membentuk fungsi sentral baru dalam DSIT untuk memantau dan menilai risiko AI, mendorong konsistensi, dan mengatasi kesenjangan peraturan. Hasil utama yang dapat dicapai mencakup, misalnya, tinjauan lintas peraturan yang sedang berlangsung, pengembangan daftar risiko AI lintas ekonomi, dan kolaborasi berkelanjutan dengan forum peraturan yang ada seperti DRCF.

Musim semi 2024 adalah salah satu fitur utamanya. meresmikan kerja koordinasinya dan membentuk komite pengarah yang terdiri dari perwakilan pemerintah dan badan pengatur utama. Keberhasilan regulasi AI di Inggris akan sangat bergantung pada efektivitas entitas baru ini. Koordinasi yang efektif antar regulator, penafsiran prinsip-prinsip yang konsisten, dan ekspektasi pengendalian yang jelas bagi dunia usaha sangat penting untuk mewujudkan manfaat kerangka ini.

 

Baca juga : Penggunaan AI dalam Sistem Rekomendasi Buku

 

3. Kecerdasan Buatan dan Hub Digital

DRCF akan meluncurkan layanan konsultasi percontohan multi-peraturan yang disebut AI dan Hub Digital pada musim semi 2024. Layanan ini bertujuan untuk membantu para inovator memenuhi berbagai kewajiban hukum sebelum memasarkan produk mereka. Pusat ini tidak hanya akan memfasilitasi kepatuhan, namun juga mendorong lebih banyak kerja sama antar badan pengatur dan akan terbuka bagi perusahaan yang memenuhi kriteria kelayakan.

DRCF juga mengonfirmasi bahwa mereka akan mempublikasikan hasil studi kasus ketika mereka menjawab pertanyaan di Pusat. Pendekatan ini berguna ketika mencoba mengatasi rasa frustrasi para pengamat proyek pusat inovasi serupa karena pengetahuan yang diperoleh tidak dibagikan kepada lebih banyak inovator, sehingga membatasi manfaat bagi masyarakat secara keseluruhan. Langkah penting lainnya adalah memastikan bahwa pengetahuan ini dapat lebih cepat disaring ke dalam strategi regulasi dan pengawasan regulator yang lebih luas.

4. Peraturan di masa depan untuk pengembang sistem GPAI berkinerja tinggi

Pendekatan Inggris terhadap GPAI telah berubah secara signifikan, dengan fokus pada tindakan sukarela, menyadari perlunya tindakan peraturan yang ditargetkan di masa depan. Tindakan ini menargetkan sekelompok pengembang model dan sistem GPAI paling canggih dan mungkin mencakup penanganan transparansi, kualitas data, manajemen risiko, akuntabilitas, tata kelola perusahaan, dan dampak negatif penyalahgunaan atau bias yang tidak adil.

Namun. Pemerintah belum mengusulkan tindakan penegakan hukum apa pun. Namun, jelas bahwa undang-undang tambahan hanya berlaku jika kondisi tertentu dipenuhi. Hal ini mencakup keyakinan bahwa mandat hukum yang ada saat ini tidak cukup untuk mengatasi risiko dan peluang GPAI, dan bahwa penerapan langkah-langkah transparansi dan manajemen risiko yang bersifat sukarela juga tidak efektif.

5. Keselarasan dan daya saing internasional

Inggris menyadari pentingnya kerja sama internasional untuk memastikan keamanan dan tata kelola AI yang efektif, seperti yang ditunjukkan pada KTT Keamanan AI Internasional tahun lalu. Acara ini dihadiri oleh 28 negara AI terkemuka, termasuk Amerika Serikat dan Uni Eropa, dan KTT tahun 2024 akan mencakup Korea Selatan dan Prancis.

Namun, sebagian besar yurisdiksi memiliki tujuan keselamatan dan keamanan yang sama. secara administratif, terdapat perbedaan pendekatan nasional. Misalnya, ketika Inggris berfokus pada inisiatif sukarela dalam GPAI, UE memilih pendekatan hukum yang komprehensif dan preskriptif. Amerika juga telah memperkenalkan beberapa persyaratan pelaporan wajib, seperti untuk model yayasan yang menimbulkan risiko keamanan nasional atau ekonomi yang serius. Nantinya, hal ini mungkin akan menjadi standar atau acuan de facto bagi perusahaan global, terutama karena dampak ekstrateritorialnya. Misalnya, undang-undang AI UE memengaruhi organisasi yang memasarkan atau menerapkan sistem AI di UE, di mana pun lokasinya.