Rang Undang-undang Kepintaran Buatan bertujuan untuk mewujudkan rangka kerja kawal selia dan undang-undang yang sama untuk penggunaan kecerdasan buatan, termasuk cara ia dibangunkan, untuk kegunaan apa syarikat boleh menggunakannya, dan akibat undang-undang jika tidak mematuhi keperluan. Rang undang-undang itu boleh menghendaki syarikat mendapatkan kelulusan dalam keadaan tertentu sebelum menggunakan kecerdasan buatan, mengharamkan penggunaan tertentu kecerdasan buatan yang dianggap terlalu berisiko, dan membuat senarai awam penggunaan kecerdasan buatan yang berisiko tinggi yang lain.
Dalam laporan rasmi mengenai undang-undang, Suruhanjaya Eropah mengatakan bahawa pada peringkat yang luas, undang-undang berusaha untuk mengubah EU menjadi paradigma kecerdasan buatan yang boleh dipercayai. Paradigma ini "menghendaki AI menjadi kukuh dari segi undang-undang, etika dan teknologi, sambil menghormati nilai demokrasi, hak asasi manusia dan kedaulatan undang-undang".
1 Memastikan sistem kecerdasan buatan yang digunakan dan digunakan di pasaran EU adalah selamat dan menghormati hak asas undang-undang dan nilai EU ;
2. Memastikan kepastian undang-undang untuk menggalakkan pelaburan dan inovasi dalam AI;
3 Memperkukuh tadbir urus dan penguatkuasaan undang-undang yang sedia ada mengenai hak asasi dan keselamatan seperti yang digunakan pada sistem AI;
4. Menggalakkan pembangunan pasaran bersatu untuk aplikasi kecerdasan buatan yang sah, selamat dan boleh dipercayai serta mencegah pemecahan pasaran.
Walaupun banyak butiran undang-undang baharu masih disiarkan, yang penting ialah definisi AI, faktor teras nampaknya ialah "Rangka Kerja Keselamatan Produk", yang membahagikan produk AI masa hadapan kepada empat kategori tahap keselamatan , Terpakai kepada semua industri.
Menurut laporan Suruhanjaya Eropah 2021 mengenai undang-undang baharu yang disusun oleh Maruritz Kop dari Forum Undang-undang Teknologi Transatlantik Stanford-Vienna, bahagian bawah "piramid kritikal" ialah sistem yang paling tidak berisiko. Aplikasi AI yang termasuk dalam kategori ini tidak perlu mematuhi keperluan ketelusan yang mesti dilalui oleh sistem yang lebih berisiko. Dalam kategori "risiko terhad", terdapat beberapa keperluan ketelusan untuk sistem AI, seperti chatbots.
- Rang undang-undang AI baharu EU membahagikan program AI kepada empat kategori, dari bawah ke atas: risiko rendah, risiko terhad, risiko tinggi dan risiko tidak boleh diterima.
Dalam kategori AI berisiko tinggi dengan keperluan ketat untuk ketelusan, peraturan akan lebih ketat. Menurut pengenalan, kategori berisiko tinggi termasuk aplikasi AI dalam:
Atas ialah kandungan terperinci Rang undang-undang kecerdasan buatan Eropah akan diperkenalkan, yang mungkin menjejaskan peraturan teknologi global. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!