在電腦進步、資料科學和龐大資料集的可用性的推動下,人工智慧 (AI) 已成為強大的日常現實和商業工具。大型科技公司如Google、亞馬遜和Meta現在正在開發基於人工智慧的系統。該技術可以模仿人類語言、檢測疾病、預測犯罪活動、起草法律合約、解決無障礙問題,並比人類更好地完成任務。對於企業而言,人工智慧有望預測業務成果、改善流程並以大幅節省成本的方式提高效率。
但人們對人工智慧的擔憂仍在增加。
人工智慧演算法已經變得如此強大,一些專家將人工智慧標記為有感知能力以至於任何腐敗、篡改、偏見或歧視都可能對組織、人類生活和社會產生巨大影響。
人工智慧決策越來越大規模地影響和改變人們的生活。不負責任地使用它們會加劇現有的人類偏見和歧視性措施,例如種族定性、行為預測或性傾向識別。之所以會出現這種固有的偏見,是因為 AI 的好壞取決於我們可以提供的訓練資料量,而這很容易受到人類偏見的影響。
當機器學習演算法在未充分代表某些族群(例如女性、有色人種或特定年齡人口統計的人)的資料上進行訓練和測試時,也會出現偏差。例如,研究表明,有色人種特別容易受到臉部辨識技術演算法偏差的影響。
使用中也會出現偏差。例如,為特定應用設計的演算法可能會用於非預期目的,這會導致對輸出的誤解。
人工智慧主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。原始程式碼可能會受到限制,或者審計人員可能不知道演算法是如何部署的。進入演算法以查看其編寫方式和回應方式的複雜性不容小覷。
目前的隱私權法依賴通知和選擇;因此,很少有人閱讀由此產生的要求消費者同意冗長的隱私權政策的通知。如果將此類通知應用於人工智慧,將對消費者和社會的安全和隱私產生嚴重後果。
雖然真正的人工智慧惡意軟體可能還不存在,但假設人工智慧惡意軟體會增強攻擊者的能力並不牽強。可能性是無窮無盡的——從環境中學習以識別和利用新漏洞的惡意軟體、針對基於人工智慧的安全性進行測試的工具或可以用錯誤資訊毒害人工智慧的惡意軟體。
由人工智慧操縱的數位內容已經被用於即時創建超逼真的個人合成副本(也稱為深度偽造)。因此,攻擊者將利用深度偽造來製造針對性很強的社會工程攻擊、造成經濟損失、操縱輿論或獲得競爭優勢。
「人工智慧主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。原始程式碼可能會受到限制,或者審計人員可能不知道演算法是如何部署的。」— Steve Durbin,資訊安全論壇執行長
由於人工智慧決策越來越大規模地影響和影響人們的生活,企業有道德、社會和信託責任以合乎道德的方式管理人工智慧的採用。他們可以透過多種方式做到這一點。
道德 AI 遵守明確定義的道德準則和基本價值觀,例如個人權利、隱私、非歧視,重要的是,非操縱。組織必須建立明確的原則來識別、衡量、評估和減輕人工智慧主導的風險。接下來,他們必須將它們轉化為實用的、可衡量的指標,並將其嵌入日常流程中。
擁有正確的工具來調查偏見的來源並了解決策中公平的影響對於開發道德人工智慧絕對至關重要。識別使用機器學習的系統,確定它們對業務的重要性,並針對 AI 引起的偏差實施流程、控制和對策。
組織應建立一個跨領域倫理委員會,監督組織和供應鏈中人工智慧系統引入的風險的持續管理和監控。委員會必須由來自不同背景的人組成,以確保對所有道德問題的敏感度。
演算法的設計必須考慮專家的意見、情境知識和對歷史偏見的認知。必須在關鍵領域(例如在金融交易中)強制執行人工授權流程,以防止它們被惡意行為者破壞。
培育一種文化,使個人能夠在不扼殺創新的情況下提出對人工智慧系統的擔憂。透過透明地處理角色、期望和責任來建立對 AI 的內部信任和信心。認識到對新角色的需求並積極提陞技能、重新技能或僱用。
如果需要,可以透過提供更好的控制權和對追索權的存取來授權使用者。強大的領導力對於賦予員工權力和將負責任的人工智慧提升為業務必要性也至關重要。
程式化檢查是評估人類公平性的傳統方法,可以透過在人類決策過程中運行演算法、比較結果並解釋機器主導決策背後的原因來從人工智慧中受益。另一個例子是麻省理工學院關於打擊系統性種族主義的研究計劃,該計劃致力於開發和使用計算工具在社會的許多不同部門創造種族平等。
以上是負責任地使用AI如何創造更安全的線上空間的詳細內容。更多資訊請關注PHP中文網其他相關文章!