Dalam kebanyakan kes, sistem kecerdasan buatan dalam kategori risiko terhad atau paling rendah akan dapat beroperasi seperti sebelum ini, dan EU menggubal undang-undang khusus untuk menangani sistem kecerdasan buatan yang mungkin membahayakan keselamatan atau privasi warga EU.
Kesatuan Eropah telah mengeluarkan draf perundangan mengenai pengawalseliaan kecerdasan buatan, yang akan menjadi rangka kerja utama bagi pembekal dan pengedar kecerdasan buatan untuk membangunkan pasaran di EU.
Dalam perundangan, EU membahagikan sistem kecerdasan buatan kepada tiga kategori risiko: risiko tidak boleh diterima, risiko tinggi dan risiko terhad atau minimum. Dalam kebanyakan kes, sistem AI dalam kategori risiko terhad atau minimum akan dapat beroperasi seperti sebelum ini, dengan perundangan EU secara khusus menangani sistem AI yang boleh menjejaskan keselamatan atau privasi warga EU.
Ursula Gertrud von der Leyen, Presiden Suruhanjaya Eropah, berkata: “Kecerdasan buatan ialah peluang hebat untuk Eropah dan rakyat berhak mendapat akses kepada teknologi yang boleh dipercayai ” “Hari ini, kami mencadangkan peraturan baharu untuk boleh dipercayai AI. Mereka menetapkan piawaian tinggi berdasarkan tahap risiko yang berbeza ”
Sistem AI yang minima atau berisiko rendah termasuk chatbot, penapis mel, video dan permainan komputer, sistem pengurusan inventori dan kebanyakan sistem AI tidak peribadi sudah digunakan di dunia.
Sistem AI berisiko tinggi termasuk kebanyakan AI dengan impak dunia nyata, seperti pemarkahan kredit pengguna, perekrutan dan infrastruktur kritikal keselamatan. Walaupun ini tidak diharamkan, perundangan EU bertujuan untuk memastikan keperluan yang lebih ketat dan pengawasan sistem ini, bersama-sama dengan denda yang lebih mahal bagi mereka yang gagal melindungi data mereka dengan betul.
EU berhasrat untuk menyemak senarai berisiko tinggi setiap tahun, sama ada menambah sistem AI baharu padanya atau menurunkan taraf beberapa sistem AI yang berisiko tinggi tetapi telah menjadi normal dalam masyarakat atau mempunyai faktor risiko yang berbeza daripada tahun-tahun sebelumnya .
Selepas kelulusan peraturan AI ini, sistem AI dengan risiko yang tidak boleh diterima tidak akan dibenarkan di EU. Ini termasuk sistem AI yang menggunakan teknik subliminal, manipulatif atau eksploitatif, yang bukan kategori tetapi larangan umum terhadap bentuk AI, seperti pengiklanan politik yang disasarkan, atau AI yang mentafsirkan emosi melalui ekspresi muka.
Di bawah Peraturan Kepintaran Buatan, sistem pengenalan biometrik jauh juga akan dilarang, terutamanya apabila digunakan oleh penguatkuasa undang-undang untuk mengenal pasti individu.
Bagi organisasi yang mengendalikan atau mengedarkan sistem kecerdasan buatan dalam EU atau dalam blok ekonomi, perundangan ini merupakan tanda pertama yang jelas tentang perkara yang akan datang. EU akan mengambil masa 12 hingga 24 bulan untuk bersetuju dengan butiran yang lebih halus, tetapi undang-undang itu tidak mungkin banyak berubah daripada draf pertama.
Ini memberikan organisasi dalam kategori sistem AI berisiko tinggi tempoh masa yang singkat untuk menentukur semula dan mengupah bagi memastikan program AI mereka berdaya maju di EU. Pengawasan manusia tambahan, ketelusan dan pengurusan risiko akan diperlukan untuk memastikan sistem AI lulus pemeriksaan, dan penalti untuk ketidakpatuhan pada masa ini ditetapkan pada €30 juta atau 6% daripada hasil global, jadi untuk organisasi yang lebih besar, kos mungkin memaksa mereka tidak boleh -melengkapkan sistem AI mereka dan mereka akan keluar dari EU.
Atas ialah kandungan terperinci EU mengeluarkan draf peraturan kecerdasan buatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!