在大多數情況下,有限或最低風險類別的人工智慧系統將能夠像以前一樣運行,歐盟正在立法專門處理可能危及歐盟公民安全或隱私的人工智慧系統。
歐盟已經發布了關於人工智慧監管的立法草案,該草案將成為人工智慧供應商和分銷商在歐盟開拓市場的關鍵框架。
在立法中,歐盟將人工智慧系統分為三個風險類別:不可接受的風險、高風險以及有限或最低風險。在大多數情況下,有限或最低風險類別的人工智慧系統將能夠像以前一樣運行,歐盟立法專門處理可能危及歐盟公民安全或隱私的人工智慧系統。
歐盟委員會主席烏蘇拉·格特魯德·馮·德萊恩(Ursula Gertrud von der Leyen) 表示:「人工智慧對歐洲來說是一個絕佳的機會,公民應該得到他們可以信任的技術。」 「今天,我們提出了值得信賴的AI 的新規則。他們根據不同的風險等級制定了高標準。」
風險最小或低的人工智慧系統包括聊天機器人、垃圾郵件過濾器、視訊和電腦遊戲、庫存管理系統,以及世界上已經部署的大多數其他非個人人工智慧系統。
高風險人工智慧系統包括大多數具有現實世界影響的人工智慧,例如消費者信用評分、招募和安全關鍵基礎設施。雖然這些沒有被禁止,但歐盟立法旨在確保對這些系統有更嚴格的要求和監督,同時對那些未能妥善保護資料的人處以更昂貴的罰款。
歐盟打算每年審查高風險清單,要么在其中添加新的人工智慧系統,要么降級一些高風險但已在社會中正常化或風險因素與往年不同的人工智慧系統.
在此AI 法規通過後,歐盟將不允許存在不可接受風險的AI 系統。其中包括使用潛意識、操縱或剝削技術的人工智慧系統,這不是一個類別,而是對人工智慧形式的普遍禁令,如有針對性的政治廣告,或透過面部表情解釋情感的人工智慧。
根據人工智慧法規,遠端生物特徵識別系統也將被禁止,特別是在執法部門用於識別個人身分時。
對於在歐盟內部運作或分發人工智慧系統的組織或在經濟集團內部開展業務的組織來說,這項立法是即將到來的第一個明確跡象。歐盟將需要 12 到 24 個月的時間就更詳細的細節達成一致,但該立法不太可能與初稿相比有太大變化。
這使高風險人工智慧系統類別的組織有很短的時間重新調整和僱用,以確保他們的人工智慧程式在歐盟是可行的。需要額外的人工監督、透明度和風險管理,以確保AI 系統通過檢查,並且對不合規的處罰目前定為3000 萬歐元或全球收入的6%,因此對於大型組織而言,成本可能會迫使如果他們不能重新裝備他們的人工智慧系統,他們就會退出歐盟。
以上是歐盟發佈人工智慧法規草案的詳細內容。更多資訊請關注PHP中文網其他相關文章!