目錄
人類天生的偏見
人工智慧中的演算法偏差
更好的人工智慧意味著自我監管和道德準則
首頁 科技週邊 人工智慧 用更好的人工智慧建立更美好的社會

用更好的人工智慧建立更美好的社會

Apr 08, 2023 pm 07:31 PM
人工智慧 供應鏈 演算法偏差

人工智慧 (AI) 具有巨大的潛力,可以透過創新來改善社會的方方面面,從傳統工程系統到醫療保健,再到藝術和娛樂領域的創意過程。例如,在好萊塢,製片廠正在使用人工智慧來揭示和衡量劇本中的偏見——製片人和編劇需要這些工具來創造更公平和更具包容性的媒體。

用更好的人工智慧建立更美好的社會

然而,人工智慧的智慧程度取決於它所訓練的數據,而這些數據反映了現實生活中的偏見。為了避免長期刻板印象和排他性,技術人員正在解決現實生活和創新中的公平和包容問題。

人類天生的偏見

由於技術人員希望使用AI 來尋找以人為中心的解決方案來優化行業實踐和日常生活,因此,注意我們與生俱來的偏見可能會產生意想不到的後果至關重要。

「身為人類,我們有很大的偏見,」德勤人工智慧研究所全球負責人、德勤技術和人工智慧倫理負責人 Ammanath說。 「隨著這些偏見融入系統,社會各部分很可能被拋在後面——代表性不足的少數族裔,無法使用某些工具的人——這可能會導致世界上更多的不平等。」     

如果系統是用有偏見的數據訓練出來的,或者研究人員沒有考慮到他們自己的觀點如何影響研究方向,那麼出發點是好的項目——創造平等的結果或減輕過去的不平等——最終仍可能產生偏見。

Ammanath表示,到目前為止,對 AI 偏見的調整通常是對發現偏見的演算法或事後出現的代表性不足的人口統計數據做出的反應。但是,企業現在必須學習如何積極主動,儘早緩解這些問題,並為他們的人工智慧工作中的失誤負責。 

人工智慧中的演算法偏差

在人工智慧中,偏見以演算法偏差的形式出現。 「演算法偏差是建立 AI 模型的一系列挑戰,」惠普實驗室首席架構師兼惠普企業 (HPE) 副總裁 Kirk Bresniker 解釋道。 「我們可能會遇到挑戰,因為我們的演算法無法處理不同的輸入,或者因為我們沒有收集到足夠廣泛的資料集來整合到我們的模型訓練中。無論哪種情況,我們都沒有足夠的資料。 」

演算法偏差也可能來自不準確的處理、資料被修改或有人注入錯誤訊號。無論有意與否,這種偏見都會導致不公平的結果,可能會賦予一個群體特權或完全排除另一個群體。

例如,Ammanath 描述了一種演算法,旨在識別不同類型的鞋子,例如人字拖、涼鞋、正裝鞋和運動鞋。然而,當它發佈時,該演算法無法識別帶有高跟鞋的女鞋。開發團隊是一群剛畢業的大學畢業生——都是男性——他們從來沒有想過要用女鞋訓練它。 

「這是一個微不足道的例子,但你意識到資料集是有限的,」Ammanath 說。 「現在考慮使用歷史資料來診斷疾病或疾病的類似演算法。如果它沒有針對某些體型、某些性別或某些種族進行訓練怎麼辦?這些影響是巨大的。」      

「至關重要的是,她說,如果你沒有那種多樣性,你就會錯過某些場景。」    

更好的人工智慧意味著自我監管和道德準則

簡單地獲取更多(和更多元)的數據集是一項艱鉅的挑戰,尤其是在數據變得更加集中的情況下。資料共享帶來了許多問題,其中最重要的是安全和隱私。

科羅拉多大學博爾德分校媒體研究助理教授Nathan Schneider 表示:「目前,我們面臨的情況是,個人用戶的權力遠低於收集和處理其數據的大型公司。」

擴展的法律和法規很可能最終會規定何時以及如何共享和使用資料。但是,創新不會等待立法者。目前,人工智慧開發組織有責任成為優秀的資料管家,保護個人隱私,同時努力減少演算法偏差。德勤的 Ammanath 表示,由於技術成熟得如此之快,不可能依靠法規來涵蓋所有可能的情況。 「我們將進入一個在遵守現有法規和自我監管之間取得平衡的時代。」

這種自我監管意味著提高構建人工智慧解決方案的整個技術供應鏈的標準,從數據到培訓再到使這些解決方案成為可能所需的基礎設施。此外,企業需要為跨部門的個人創造途徑,以提出對偏見的擔憂。雖然不可能完全消除偏見,但企業必須定期審查其人工智慧解決方案的有效性。

由於人工智慧的高度情境脈絡性質,每家企業的自我監管看起來都不同。例如,HPE 制定了道德 AI 準則。來自整個公司的各種不同的人花了將近一年的時間共同製定公司的人工智慧原則,然後與廣泛的員工一起審查這些原則,以確保它們可以被遵循並且它們對企業文化有意義。

HPE 的Bresniker 說:「我們希望提高對這些問題的一般理解,然後收集最佳實踐。這是每個人的工作——在這個領域有足夠的認知。」      

人工智慧技術已經成熟,從研究發展到實際應用和價值創造,遍及所有產業。人工智慧在社會上的日益普及意味著企業現在有道德責任提供強大的、包容的和可訪問的解決方案。這種責任促使組織(有時是第一次)檢查他們拉入流程的資料。 Bresniker說:「我們希望人們能建立起這種遠見,對輸入的數據有可衡量的信心。」「他們有能力阻止持續的系統性不平等,為更美好的未來創造公平的結果。」

以上是用更好的人工智慧建立更美好的社會的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 位元組跳動剪映推出 SVIP 超級會員:連續包年 499 元,提供多種 AI 功能 Jun 28, 2024 am 03:51 AM

本站6月27日訊息,剪映是由位元組跳動旗下臉萌科技開發的一款影片剪輯軟體,依託於抖音平台且基本面向該平台用戶製作短影片內容,並相容於iOS、安卓、Windows 、MacOS等作業系統。剪映官方宣布會員體系升級,推出全新SVIP,包含多種AI黑科技,例如智慧翻譯、智慧劃重點、智慧包裝、數位人合成等。價格方面,剪映SVIP月費79元,年費599元(本站註:折合每月49.9元),連續包月則為59元每月,連續包年為499元每年(折合每月41.6元) 。此外,剪映官方也表示,為提升用戶體驗,向已訂閱了原版VIP

使用Rag和Sem-Rag提供上下文增強AI編碼助手 使用Rag和Sem-Rag提供上下文增強AI編碼助手 Jun 10, 2024 am 11:08 AM

透過將檢索增強生成和語意記憶納入AI編碼助手,提升開發人員的生產力、效率和準確性。譯自EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG,作者JanakiramMSV。雖然基本AI程式設計助理自然有幫助,但由於依賴對軟體語言和編寫軟體最常見模式的整體理解,因此常常無法提供最相關和正確的程式碼建議。這些編碼助手產生的代碼適合解決他們負責解決的問題,但通常不符合各個團隊的編碼標準、慣例和風格。這通常會導致需要修改或完善其建議,以便將程式碼接受到應

七個很酷的GenAI & LLM技術性面試問題 七個很酷的GenAI & LLM技術性面試問題 Jun 07, 2024 am 10:06 AM

想了解更多AIGC的內容,請造訪:51CTOAI.x社群https://www.51cto.com/aigc/譯者|晶顏審校|重樓不同於網路上隨處可見的傳統問題庫,這些問題需要跳脫常規思維。大語言模型(LLM)在數據科學、生成式人工智慧(GenAI)和人工智慧領域越來越重要。這些複雜的演算法提升了人類的技能,並在許多產業中推動了效率和創新性的提升,成為企業保持競爭力的關鍵。 LLM的應用範圍非常廣泛,它可以用於自然語言處理、文字生成、語音辨識和推薦系統等領域。透過學習大量的數據,LLM能夠產生文本

微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 微調真的能讓LLM學到新東西嗎:引入新知識可能讓模型產生更多的幻覺 Jun 11, 2024 pm 03:57 PM

大型語言模型(LLM)是在龐大的文字資料庫上訓練的,在那裡它們獲得了大量的實際知識。這些知識嵌入到它們的參數中,然後可以在需要時使用。這些模型的知識在訓練結束時被「具體化」。在預訓練結束時,模型實際上停止學習。對模型進行對齊或進行指令調優,讓模型學習如何充分利用這些知識,以及如何更自然地回應使用者的問題。但是有時模型知識是不夠的,儘管模型可以透過RAG存取外部內容,但透過微調使用模型適應新的領域被認為是有益的。這種微調是使用人工標註者或其他llm創建的輸入進行的,模型會遇到額外的實際知識並將其整合

你所不知道的機器學習五大學派 你所不知道的機器學習五大學派 Jun 05, 2024 pm 08:51 PM

機器學習是人工智慧的重要分支,它賦予電腦從數據中學習的能力,並能夠在無需明確編程的情況下改進自身能力。機器學習在各個領域都有廣泛的應用,從影像辨識和自然語言處理到推薦系統和詐欺偵測,它正在改變我們的生活方式。機器學習領域存在著多種不同的方法和理論,其中最具影響力的五種方法被稱為「機器學習五大派」。這五大派分別為符號派、聯結派、進化派、貝葉斯派和類推學派。 1.符號學派符號學(Symbolism),又稱符號主義,強調利用符號進行邏輯推理和表達知識。該學派認為學習是一種逆向演繹的過程,透過現有的

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 SOTA性能,廈大多模態蛋白質-配體親和力預測AI方法,首次結合分子表面訊息 Jul 17, 2024 pm 06:37 PM

編輯|KX在藥物研發領域,準確有效地預測蛋白質與配體的結合親和力對於藥物篩選和優化至關重要。然而,目前的研究並沒有考慮到分子表面訊息在蛋白質-配體相互作用中的重要作用。基於此,來自廈門大學的研究人員提出了一種新穎的多模態特徵提取(MFE)框架,該框架首次結合了蛋白質表面、3D結構和序列的信息,並使用交叉注意機制進行不同模態之間的特徵對齊。實驗結果表明,該方法在預測蛋白質-配體結合親和力方面取得了最先進的性能。此外,消融研究證明了該框架內蛋白質表面資訊和多模態特徵對齊的有效性和必要性。相關研究以「S

SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 SK 海力士 8 月 6 日將展示 AI 相關新品:12 層 HBM3E、321-high NAND 等 Aug 01, 2024 pm 09:40 PM

本站8月1日消息,SK海力士今天(8月1日)發布博文,宣布將出席8月6日至8日,在美國加州聖克拉拉舉行的全球半導體記憶體峰會FMS2024,展示諸多新一代產品。未來記憶體和儲存高峰會(FutureMemoryandStorage)簡介前身是主要面向NAND供應商的快閃記憶體高峰會(FlashMemorySummit),在人工智慧技術日益受到關注的背景下,今年重新命名為未來記憶體和儲存高峰會(FutureMemoryandStorage),以邀請DRAM和儲存供應商等更多參與者。新產品SK海力士去年在

See all articles