歐洲新人工智慧法案將加強倫理道德審核
隨著歐盟邁向實施人工智慧法案,人工智慧倫理道德問題(如偏見、透明度和可解釋性)正變得越來越重要,該法案將有效規範人工智慧和機器學習技術在所有行業的使用。人工智慧專家表示,這是人工智慧使用者熟悉道德概念的好時機。
歐洲最新版的《人工智慧法案》於去年推出,目前正迅速通過審查過程,最快可能在 2023 年實施。雖然該法律仍在製定中,但歐盟委員會似乎已準備好大步監管人工智慧。
例如,法律將對人工智慧系統的使用設定新要求,並完全禁止某些用例。所謂的高風險人工智慧系統,例如用於自動駕駛汽車的人工智慧系統以及教育、移民和就業的決策支援系統,將要求使用者對人工智慧應用進行影響評估和審計。某些 AI 用例將在資料庫中進行密切跟踪,而其他用例則需要外部審計員簽署才能使用。
總部位於賓州紐敦的軟體工程公司EPAM Systems 的數據分析顧問主管Nick Carrel 表示,作為MLOps 參與或數據科學諮詢參與的一部分,對不可解釋性和可解釋性的需求很大。他說,歐盟的人工智慧法案也在推動企業尋求道德人工智慧的洞察力和答案。
「現在對所謂的 ML Ops 有很多需求,這是一門操作機器學習模型的科學。我們非常認為道德人工智慧是這一過程的關鍵基礎之一,」 Carrel 說。 「我們還有更多來自客戶的要求…因為他們了解了即將在今年年底圍繞人工智慧系統生效的歐盟立法,他們希望做好準備。」
不可解釋性和可解釋性是獨立但相關的概念。模型的可解釋性是指人類能夠理解和預測模型將做出何種決策的程度,而可解釋性是指準確描述模型實際運作方式的能力。 EPAM Systems 資料科學和機器學習部門的負責人 Andrey Derevyanka 說,你可以有一個沒有另一個。
「想像一下,你正在做一些實驗,也許是一些混合兩種液體的化學實驗。這個實驗是可以解釋的,因為,你看到你在這裡做了什麼。你拿了一個物品,加上另一個物品,我們得到了結果,」Derevyanka 表示。 「但要讓這個實驗可以解釋,你需要知道化學反應,你需要知道反應是如何產生的,是如何進行的,你需要知道這個過程的內部細節。」
##Derevyanka 說,特別是深度學習模型可以解釋但有不能說明具體情況。 「你有一個黑盒子,它以某種方式運作,但你知道你不知道裡面是什麼,」他說。 「但你可以解釋:如果你給這個輸入,你就會得到這個輸出。」 消除偏見#在道德 AI 方面,偏見是另一個重要主題。 EPAM Systems 數據和人工智慧實踐主管 Umit Cakmak 表示,不可能完全消除數據中的偏見,但企業組織努力消除人工智慧模型中的偏見很重要。 「這些事情必須隨著時間的推移進行分析,」Cakmak 說。 「這是一個過程,因為偏見已經融入歷史數據。沒有辦法從數據中清除偏差。因此,作為一家企業,您必須設定一些特定的流程,以便您的決策隨著時間的推移變得更好,這將隨著時間的推移提高您的數據質量,因此隨著時間的推移,您的偏見會越來越少。」歐盟的人工智慧法案將按風險對人工智慧的使用進行分類
可解釋性對於讓利害關係人(包括內部或外部審計師,以及將聲譽置於危險境地的客戶和高階主管)相信AI 模型不會根據有偏見的數據做出錯誤的決策非常重要。Cakmak 說,文獻中有許多數據偏見洩漏到自動決策系統中的例子,包括種族偏見出現在用於評估員工績效或從履歷中挑選求職者的模型中。能夠展示模型如何得出結論對於展示已採取措施消除模型中的資料偏差非常重要。
Cakmak 回憶起缺乏可解釋性如何導致一家醫療保健公司放棄為癌症診斷開發的人工智慧系統。 「人工智慧在某種程度上發揮了作用,但隨後該專案被取消,因為他們無法建立對演算法的信任和信心,」他說。 「如果你無法解釋為什麼會出現這種結果,那麼你就無法繼續治療。」
EPAM Systems 幫助企業以可信的方式實施人工智慧。該公司通常會遵循一套特定的指導方針,從如何收集資料開始,到如何準備機器學習模型,再到如何驗證和解釋模型。 Cakmak 說,確保 AI 團隊成功通過並記錄這些檢查或「質量門」是道德 AI 的一個重要元素。
道德與人工智慧法案
波士頓顧問集團全球 GAMMA 首席人工智慧道德長 Steven Mills 表示,規模最大、營運最完善的企業已經意識到需要負責任的人工智慧。
然而,隨著人工智慧法案越來越接近成為法律,我們將看到世界各地更多的公司加速他們負責任的人工智慧項目,以確保他們不會違反不斷變化的監管環境和新的期望。
「有很多公司已經開始實施人工智慧,並且意識到我們沒有像我們想要的那樣對所有潛在的意外後果抱有希望,我們需要盡快解決這個問題,」 Mills說. 「這是最重要的。人們並不覺得他們只是隨意的以及他們如何應用它。」
以合乎道德的方式實施人工智慧的壓力來自組織的高層。 Mills說,在某些情況下,它來自外部投資者,他們不希望自己的投資風險因以不好的方式使用人工智慧而受到損害。
他說:「我們看到了一種趨勢,即投資者,無論是上市公司還是風險基金,都希望確保以負責任的方式建立人工智慧。」 「這可能並不明顯。這對每個人來說可能並不明顯。但在幕後,這些創投公司中的一些人正在考慮他們在哪裡投入資金以確保這些新創公司以正確的方式做事。」
Carrel 表示,雖然目前《人工智慧法案》的細節也很模糊,但該法律有可能明確人工智慧的使用,這將使公司和消費者都受益。
「我的第一個反應是這將是非常嚴格的,」Carrel 說,他在加入 EPAM Systems 之前在金融服務業實施了機器學習模型。 「多年來,我一直在試圖突破金融服務決策的界限,突然間有一項立法出台,它會破壞我們所做的工作。
但他越是關注未決法律,就越喜歡他所看到的。
「我認為這也將逐漸增加公眾對不同行業使用人工智慧的信心,」 Carrel 說。「立法規定你必須在歐盟註冊高風險人工智慧系統,這意味著你知道在某處將有一個非常清晰的清單,列出正在使用的每一個人工智慧高風險系統。這為審計人員提供了強大的權力,這意味著頑皮的男孩和壞玩家將逐漸受到懲罰,希望隨著時間的推移,我們會為那些想要將人工智慧和機器學習用於更好的事業的人留下最佳實踐-負責任的方式。 ”
以上是歐洲新人工智慧法案將加強倫理道德審核的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

在機器學習和資料科學領域,模型的可解釋性一直是研究者和實踐者關注的焦點。隨著深度學習和整合方法等複雜模型的廣泛應用,理解模型的決策過程變得尤為重要。可解釋人工智慧(ExplainableAI|XAI)透過提高模型的透明度,幫助建立對機器學習模型的信任和信心。提高模型的透明度可以透過多種複雜模型的廣泛應用等方法來實現,以及用於解釋模型的決策過程。這些方法包括特徵重要性分析、模型預測區間估計、局部可解釋性演算法等。特徵重要性分析可以透過評估模型對輸入特徵的影響程度來解釋模型的決策過程。模型預測區間估計

本文將介紹如何透過學習曲線來有效辨識機器學習模型中的過度擬合和欠擬合。欠擬合和過擬合1、過擬合如果一個模型對資料進行了過度訓練,以至於它從中學習了噪聲,那麼這個模型就被稱為過擬合。過度擬合模型非常完美地學習了每一個例子,所以它會錯誤地分類一個看不見的/新的例子。對於一個過度擬合的模型,我們會得到一個完美/接近完美的訓練集分數和一個糟糕的驗證集/測試分數。略有修改:"過擬合的原因:用一個複雜的模型來解決一個簡單的問題,從資料中提取雜訊。因為小資料集作為訓練集可能無法代表所有資料的正確表示。"2、欠擬合如

通俗來說,機器學習模型是一種數學函數,它能夠將輸入資料映射到預測輸出。更具體地說,機器學習模型是一種透過學習訓練數據,來調整模型參數,以最小化預測輸出與真實標籤之間的誤差的數學函數。在機器學習中存在多種模型,例如邏輯迴歸模型、決策樹模型、支援向量機模型等,每種模型都有其適用的資料類型和問題類型。同時,不同模型之間存在著許多共通性,或者說有一條隱藏的模型演化的路徑。將聯結主義的感知機為例,透過增加感知機的隱藏層數量,我們可以將其轉化為深度神經網路。而對感知機加入核函數的話就可以轉換為SVM。這一

1950年代,人工智慧(AI)誕生。當時研究人員發現機器可以執行類似人類的任務,例如思考。後來,在1960年代,美國國防部資助了人工智慧,並建立了實驗室進行進一步開發。研究人員發現人工智慧在許多領域都有用武之地,例如太空探索和極端環境中的生存。太空探索是對宇宙的研究,宇宙涵蓋了地球以外的整個宇宙空間。太空被歸類為極端環境,因為它的條件與地球不同。要在太空中生存,必須考慮許多因素,並採取預防措施。科學家和研究人員認為,探索太空並了解一切事物的現狀有助於理解宇宙的運作方式,並為潛在的環境危機

C++中機器學習演算法面臨的常見挑戰包括記憶體管理、多執行緒、效能最佳化和可維護性。解決方案包括使用智慧指標、現代線程庫、SIMD指令和第三方庫,並遵循程式碼風格指南和使用自動化工具。實作案例展示如何利用Eigen函式庫實現線性迴歸演算法,有效地管理記憶體和使用高效能矩陣操作。

譯者|李睿審校|重樓人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。可解釋性人工智慧至關重要的幾個原因信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

MetaFAIR聯合哈佛優化大規模機器學習時所產生的資料偏差,提供了新的研究架構。據所周知,大語言模型的訓練常常需要數月的時間,使用數百甚至上千個GPU。以LLaMA270B模型為例,其訓練總共需要1,720,320個GPU小時。由於這些工作負載的規模和複雜性,導致訓練大模型存在著獨特的系統性挑戰。最近,許多機構在訓練SOTA生成式AI模型時報告了訓練過程中的不穩定情況,它們通常以損失尖峰的形式出現,例如Google的PaLM模型訓練過程中出現了多達20次的損失尖峰。數值偏差是造成這種訓練不準確性的根因,
