如何透過合成資料產生器來避免人工智慧的偏見問題

王林
發布: 2023-04-26 14:40:08
轉載
840 人瀏覽過

如何透過合成資料產生器來避免人工智慧的偏見問題

人工智慧偏見是一個嚴重的問題,可能對個人產生各種後果。

隨著人工智慧的發展,圍繞數據科學解決方案的問題和道德困境開始浮出水面。因為人類已經將自己排除在決策過程之外,他們希望確保這些演算法所做的判斷既不帶有偏見,也不帶有歧視性。人工智慧必須在任何時候都受到監督。我們不能說這種可能的偏見是由人工智慧引起的,因為其是一個基於預測分析的數位系統,可以處理大量數據。這個問題在更早的時候就開始了,也就是「輸入」到系統中的無監督資料。

縱觀歷史,人類一直存有偏見和歧視。我們的行動似乎不會很快改變。在系統和演算法中發現了偏見,與人類不同,這些系統和演算法似乎對這個問題免疫。

什麼是人工智慧偏見?

當獲取數據的方式導致樣本不能正確代表利益群體時,AI偏差就會在數據相關領域發生。這表明來自特定種族、信仰、膚色和性別的人,在數據樣本中沒有得到充分代表。這可能會導致系統做出鑑別性的結論。也引發了關於什麼是數據科學諮詢以及其的重要性的問題。

AI中的偏見並不意味著創建的AI系統會故意偏向特定的人群。人工智慧的目標是使個人能夠透過範例而不是指令來表達他們的願望。所以,如果AI有偏差,那隻能是因為數據有偏差!人工智慧決策是一個在現實世界中運作的理想化過程,其無法掩蓋人類的缺陷。結合引導學習也是有利的。

為什麼會發生?

人工智慧偏見問題的出現​​是由於數據可能包含基於先入為主的人類選擇,這有利於得出良好的演算法結論。在現實生活中,有幾個關於人工智慧偏見的例子。種族人士和著名的變裝皇后被谷歌的仇恨言論檢測系統歧視。 10年來,亞馬遜的人力資源演算法主要是提供男性員工數據,這導致女性候選人更有可能被評為符合亞馬遜的工作資格。

麻省理工學院(MIT)的資料科學家表示,人臉辨識演算法在分析少數族裔(尤其是少數族裔女性)的面孔時,出錯率更高。這可能是因為演算法在訓練過程中主要提供了白人男性的臉。

由於亞馬遜的演算法是根據其在美國的1.12億Prime用戶,以及數千萬經常光顧該網站,並經常使用其其他商品的額外個人的數據進行訓練的,因此該公司可以預測消費者的購買行為。谷歌的廣告業務是基於預測演算法的,該演算法由其每天進行的數十億次網路搜尋以及市場上25億部Android智慧型手機的數據提供。這些網路巨頭建立了龐大的資料壟斷企業,在人工智慧領域擁有近乎不可逾越的優勢。

合成資料如何幫助解決人工智慧偏見?

在一個理想的社會中,沒有人會受到偏見,每個人都將擁有平等的機會,無論膚色、性別、宗教或性取向。然而,存在於現實世界中,在某些地區與大多數人不同的人更難找到工作和獲得教育,這使他們在許多統計數據中被低估。根據人工智慧系統的目標,這可能會導致錯誤的推斷,即這類人技能較低,不太容易被納入這些資料集,以及不太適合獲得良好的分數。

另一方面,人工智慧資料可能是朝著公正的人工智慧方向邁出的一大步。以下是一些需要考慮的概念:

查看現實世界的數據,看看偏差在哪裡。然後,利用真實世界的數據和可觀察到的偏差,合成數據。如果想要創建理想的虛擬資料產生器,則需要包含一個公平定義,其可嘗試將偏差的資料轉換為可能被認為是公平的資料。

人工智慧產生的資料可能會填補資料集中變化不大或不夠大的空白,從而形成一個公正的資料集。即使樣本量很大,也有可能有些人被排除在外,或與其他人相比,代表性不足。這個問題必須使用合成數據來解決。

資料探勘可能比產生公正的資料更昂貴。實際的資料收集需要測量、訪談、大量的樣本,而且無論如何都需要付出很多努力。人工智慧產生的數據價格低廉,而且只需要使用數據科學和機器學習演算法即可。

過去幾年,許多獲利性合成資料公司以及Synthea的創辦人MitreCorp.的高層都注意到,人們對他們的服務的興趣激增。然而,隨著演算法被更廣泛地用於做出改變生活的決定,人們發現它們會加劇種族主義、性別歧視和其他高影響領域的有害偏見,包括臉部辨識、犯罪預測和醫療保健決策。研究人員表示,使用演算法產生的資料訓練演算法,會增加人工智慧系統在許多情況下延續有害偏見的可能性。

以上是如何透過合成資料產生器來避免人工智慧的偏見問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板