「 我們不會看到事物的本質,我們只是以自己的方式在看待它 。」她相當簡潔地描述了伴隨我們的大腦而來的各種不幸的偏見 。
在商業環境中,親和力偏差、確認偏誤、歸因偏誤和光環效應,這些推理錯誤中的一些更為人所知的,實際上只是表面上的。總的來說,他們會留下一連串的冒犯和錯誤。
當然,人類最有害的偏見是那些基於年齡、種族、性別、宗教或外貌而對我們的人類同胞產生偏見或反對我們的偏見。儘管我們努力淨化我們自己、我們的工作環境和我們的社會,使其不受這些扭曲的影響,但它們仍然在我們的思想和行為中滲透,甚至包括現代技術,例如人工智慧。
自從人工智慧首次被部署在招募、貸款審批、保險費建模、臉部辨識、執法和一系列其他應用中以來,批評者(有相當多的理由)指出了該技術的偏見傾向。
例如,Google的新版語言模型BERT(Bidirectional Encoder Representations from Transformers)是一個領先的自然語言處理(NLP)模型,開發人員可以使用它來建立自己的AI。 BERT最初是使用維基百科文本作為其主要來源建構的。這有什麼問題嗎?維基百科的貢獻者絕大多數是 來自歐洲和北美的白人男性 。因此,基於語言的人工智慧最重要的來源之一在誕生之初就帶有偏見的觀點。
在人工智慧開發的另一個關鍵領域電腦視覺中也發現了類似的問題。臉部辨識資料集包含數十萬張標註的人臉,這對於開發用於網路安全、執法甚至客戶服務的臉部辨識應用程式至關重要。然而,事實證明,開發人員(可能大部分是白人中年男性)在為像他們這樣的人實現準確性方面不知不覺地做得更好。女性、兒童、老年人和有色人種的錯誤率遠高於中年白人男性。因此,IBM、亞馬遜和微軟在2020年被迫停止向執法部門銷售其臉部辨識技術,因為擔心這些偏見會導致對嫌疑人的錯誤辨識。
要了解更多信息,可以觀看重要且有時令人不寒而栗的紀錄片《編碼偏見》Coded Bias。
然而,對人工智慧偏見現象的更好理解表明,人工智慧只是暴露和放大了已經存在但被忽視或誤解的隱性偏見。人工智慧本身不受顏色、性別、年齡和其他偏見的影響。它不易受到困擾人類的邏輯謬誤和認知偏誤的影響。我們看到人工智慧存在偏見的唯一原因是人類有時會用啟發式錯誤和有偏見的資料來訓練它。
自從發現上述偏見以來,所有主要的技術公司都在努力改進資料集並消除偏見。消除人工智慧偏見的一種方法?——透過使用人工智慧!如果這似乎不太可能,我們繼續探討。
經典的例子可以在工作機會中找到。在最令人垂涎的就業機會範圍內,眾所周知,女性和有色人種的代表性不足。這種現像是自我延續的,因為新員工成為高階領導者,他們開始負責招募。親和偏見確保「像我這樣的人」繼續被錄用,而歸因偏見則根據過去員工的表現證明這些選擇是正確的。
但當人工智慧在招募中發揮更大作用時,這種情況可能會改變。像Textio、Gender Decoder和Ongig這樣的工具使用人工智慧來仔細檢查關於性別和其他特徵的隱藏偏見。 Knockri、Ceridian和Gapjumpers使用人工智慧刪除或忽略識別性別、國籍、膚色和年齡的特徵,讓招募經理只專注於求職者的資格和經驗。其中一些解決方案還透過客觀評估候選人的軟技能或改變候選人的電話聲音來掩蓋他們的性別,從而減少了面試過程中的近因偏見、親和力偏見和性別偏見。
在創投界也可以採取類似的做法。在創投界,男性 佔合夥人的 80% ,而女性只獲得2.2%的投資,儘管她們是40%新創公司的創辦人。例如,英國創業加速器Founders Factory編寫了一款軟體,根據可識別的創業成功特徵對 專案候選人進行篩選。同樣,由女性經營的非營利機構F4capital開發了一套「 新創公司 FICO 評分 」(FICO score for Startups),用來評估新創公司的成熟度、機會和風險,以消除風險決策過程中的偏見。這種方法應該被廣泛採用,不僅因為它是一件合乎道德的事情,還因為它帶來了更好的回報——比沒有人工智慧幫助的投資高出 184% 。
人工智慧還可以幫助在醫療保健方面做出更好的決策。例如,醫療診斷公司 Flow Health 致力於使用人工智慧來克服醫生經常用來診斷病人的認知偏見。例如,「 可獲得性啟發 」鼓勵醫生做出常見但有時不正確的診斷,而「錨定啟發式」導致他們堅持不正確的初始診斷,即使新資訊與他們相矛盾。我相信人工智慧將成為快速發展的數據驅動的個人化醫療世界的重要組成部分。
人工智慧甚至可以幫助減少不那麼惡性、但仍然非常強大的偏見,這些偏見經常蒙蔽我們的商業判斷。想想(在英語國家)對用英語發布的信息的偏見,創業公司對年紀較大的人的偏見,儘管他們的知識和經驗更豐富;製造業傾向於使用相同的供應商和方法,而不是嘗試新的、可能更好的方法。別忘了,在經濟困難時期,供應鏈管理的高階主管和華爾街的投資人會因為情感因素做出短期決策。
讓人工智慧在所有這些領域發揮作用,可以有效地檢查決策過程中未被識別的偏見。
如果犯錯是人的本性,人工智慧可能是我們所需的解決方案,以避免我們隱藏的偏見帶來的代價高昂和不道德的後果。但這些偏見對人工智慧本身的干擾又如何呢?如果人工智慧誤讀了有偏見的數據,並放大了有偏見的人類啟發式,它怎麼可能是一個有用的解決方案?
#現在有一些工具旨在消除隱含的人類和數據偏見,這些偏見悄悄地進入人工智慧。 What-If 工具由Google 的People and AI Research 團隊(PAIR) 開發,讓開發人員可以使用廣泛的「公平指標」函式庫來探索AI 的效能,而PWC 的Bias Analyzer 工具、IBM Research 的AI Fairness 360工具和O ' Reilly 的每個LIME 工具都可以幫助我們識別AI 程式碼中是否存在偏見。
如果你是高階主管或董事會成員,正在考慮人工智慧可能減少你組織中的偏見的方式,我敦促您將人工智慧視為武器庫中一個有希望的新武器,而不是將其視為完全解決問題的靈丹妙藥。從整體和實際角度來說,你仍然需要建立減少偏見的基準,培訓你的員工識別和避免隱藏的偏見,並從客戶、供應商或顧問那裡收集外部回饋。偏見審查不僅是一個好主意,在某些情況下,它們甚至是法律。
以上是人工智慧可以幫助消除偏見嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!