人工智慧(AI)可信嗎?

王林
發布: 2023-04-12 12:37:06
轉載
2541 人瀏覽過

人工智慧(AI)可信嗎?

人工智慧比智慧更人工

2022年6月,微軟發布了微軟責任人工智慧標準v2,其發布目的是「定義負責任人工智慧的產品開發需求」。也許令人感到驚訝,該文件只提到了人工智慧中的一種偏差,即微軟的演算法開發人員需要意識到,過度依賴人工智慧的用戶可能會提出的問題(也稱為「自動化歧視」)。

簡而言之,微軟似乎更關心用戶針對其產品的看法,而不是產品實際上對用戶的不利影響。這是良好的商業責任(不要對我們的產品說任何負面的話),但社會責任較差(有許多例子顯示演算法歧視對個人或個人群體產生負面影響)。

商業人工智慧有三個尚未解決的主要問題:

  • 隱藏的偏差造成虛假結果;
  • 被使用者或攻擊者濫用的可能性;
  • 演算法回傳太多的誤報,以至於抵消了自動化的價值。 

學術界的擔憂

當人工智慧首次被引入網路安全產品時,它被描述為防護銀彈。毫無疑問,AI肯定有它的價值,但隨著一些出錯的演算法、隱藏的歧視,以及罪犯對AI的濫用,甚至是執法和情報機關對隱私窺探,反對AI的聲音越來越強烈。

根據2022年6月6日《科學美國人》的說法,問題在於一門仍在發展的科學的商業化:

人工智慧領域最大的研究團隊不在學術界,而是出現在企業中。在學術界,同儕評審是王道。與大學不同,企業沒有公平競爭的動機。他們不是將新的學術論文提交學術審查,而是透過新聞稿吸引記者,並跨越同行評審流程。我們只知道企業想讓我們知道的。

--紐約大學心理學和神經科學教授加里·馬庫斯

結果就是,我們只聽到了人工智慧的正面方面,但沒有聽到人工智慧的消極方面。

喬治城法學院隱私與技術中心執行董事艾米莉·塔克也得出了類似的結論:「從今天開始,我們中心將停止在工作中使用術語'人工智慧'、'AI '和'機器學習',以暴光並減輕數位技術在個人和社區生活中的危害…作為獲得資本的一種戰略手段,科技公司如此成功地扭曲圖靈測試的原因之一,在於政府渴望獲得科技所賦予的無所不在的監督權。這種監督權行使起來方便、成本也相對便宜,並且可以透過規避民主決策或監督的採購流程獲得。」

簡而言之,對利潤的追求阻礙了人工智慧的科學發展。面對這些擔憂,我們需要問自己,是否可以相信產品中的人工智慧輸出的是準確的資訊和沒有偏差的判斷,而不是被人們、罪犯,甚至是政府所濫用。

人工智慧的失敗

案例1:一輛特斯拉自動駕駛汽車直接駛向一名手持停車標誌的工人,只有在司機進行幹預時才會減速。原因在於,人工智慧被訓練識別人類和識別停車標誌,但沒有被訓練識別出攜帶停車標誌的人類。

案例2:2018年3月18日,一輛優步自動駕駛汽車撞死了一名推著自行車的行人。根據NBC當時的說法,人工智慧無法「將物體歸類為行人,除非物體靠近人行橫道」。

案例3:2020年英國新冠肺炎封閉期間,學生的考試成績由人工智慧演算法來評判。大約40%的學生成績比預期的要低得多。這是因為,演算法過度重視各校的歷史成績。因此,相較於其他學校,私立學校和以前成績優異的公立學校的學生獲得了很大的評分優勢。

案例4:Tay是微軟於2016年在Twitter上推出的一款人工智慧聊天機器人,透過模仿真實人類的語言,Tay的目標是成為一個可以理解俚語的智慧互動系統。但在短短的16個小時的真人互動之後,Tay就被迫下線。它在推特上寫道「希特勒憎恨猶太人是正確的」。

案例5:選擇候選人。亞馬遜希望AI幫助其自動選擇填補職缺的候選人,但演算法的結果是性別歧視和種族歧視,偏向白人、男性。

案例6:錯誤的身份。新冠疫情封閉期間,一支蘇格蘭足球隊在線上直播了一場比賽,使用的是基於人工智慧的攝影機追蹤足球。但這個AI拍攝系統不斷地把邊裁的光頭當作足球,拍攝焦點總是集中在這位邊裁身上,而不是比賽。

案例7:申請拒絕。 2016年一位母親申請昏迷半年後醒來的兒子搬進她所居住的公寓,卻遭到住房中心的拒絕。兒子被送到康復中心一年後,才透過律師弄清楚原因。住房中心使用的人工智慧認為兒子有盜竊記錄,所以將其列入住房黑名單。但實際上兒子一直臥病在床,根本無法實施犯罪。

類似的例子還有很多,究其原因無非兩種,一是意外偏差所造成的設計失敗,二是學習失敗。自動駕駛汽車的案例是學習失敗。雖然隨著學習次數的增加可以校正錯誤,但在校正之前,一旦投入使用可能要付出沉重的代價。但如果想完全避免風險的話,意味著永遠也無法投入使用。

案例3和案例5則屬於設計失敗,意料之外的偏差扭曲了結果。問題在於,開發人員是否能夠在不知道自己有偏見的情況下,去除他們的偏見。

人工智慧的誤用與濫用

誤用表示人工智慧的應用效果並非開發人員的本意。濫用則意味著故意去做,例如污染餵給人工智慧的數據。一般而言,誤用通常由AI產品所有者的行為,而濫用往往涉及第三方(如網路罪犯)的行為,導致產品受到並非所有者本意的操縱。我們先來看看誤用的情況。

誤用

Vectra AI的研究負責人Kazerounian認為,當人類開發的演算法試圖對其他人進行判斷時,隱藏的偏差是不可避免的。例如在信用申請和租賃申請方面,美國有著悠久的紅線和種族主義歷史,這些歧視政策在基於人工智慧的自動化之前早已存在。

而且,當偏見深入到人工智慧演算法中時,比起人的偏見,更難發現和理解。 「你也許可以在深度學習模型中看到矩陣運算得出的分類結果。但人們只能解釋運算的機制,卻解釋不了原因。它只是解釋了機制。我認為,站在更高的層面上,我們必須問的是,有些事適合交給人工智慧去做嗎?」

2022年5月11日,麻省理工學院與哈佛大學發表在《刺胳針》上的一項研究,證實了人們無法理解深度學習是如何得出結論的。研究發現,人工智慧僅依靠醫學影像(如X光和CT掃描),就能夠辨識種族,但沒有人知道AI是如何做到這一點的。再往後想一下,在確定病患的人種、族裔、性別甚至是否被監禁等方面,AI醫療系統的做法可能要遠遠超越我們的想像。

哈佛醫學院醫學副教授、作者之一安東尼·塞利評論道,「僅僅因為你的演算法中有不同群體的表徵(數據的品質和有效性),並不能保證它可以永遠如此,也不能保證它會放大已有的差異和不平等。用表徵學習為演算法提供更多數據並非萬靈藥。這篇論文應該讓我們停下來,真正重新考慮我們是否準備好將人工智慧應用在臨床診斷。」

這個問題也波及到了網路安全領域。 2022年4月22日,微軟在其產品路線圖中新增了一個名為「離職者分類器」的功能。該產品預計將於2022月9月上市。 「離職者分類器可以早期偵測出意圖離開組織的員工,以減少因員工離職帶來的有意或無意的資料外洩風險。」

當有媒體嘗試以人工智慧與個人隱私為主題在採訪微軟時,卻得到了這樣的回答:「微軟目前沒有什麼可以分享的,但如果有新消息我們會讓你及時了解。」

在倫理方面,必須考慮的是,用AI來做離職的意圖推測,是否是對科技的正確使用。至少大多數人認為,透過監控通訊來確定某人是否正在考慮離職,是一件正確或合適的事情,尤其是結果可能造成負面影響。

而且,演算法中的意外偏差很難避免,甚至更難檢測。既然預測某人是否會離職,連人類都難以有效判斷個人動機,為什麼人工智慧系統就不會犯錯呢?而且,人們在工作上的溝通有著各種說話的方式,假設、玩笑、氣憤,或談論他人。即便是去招募網站更新履歷,也可能只是腦中的閃念。一旦被機器學習判定為高離職可能性的員工,那就很可能在經濟衰退時首先要解僱的人員,並與加薪或升職無緣。

還有一個更廣泛的可能性。如果企業可以擁有這種技術,執法機構和情報機構自然也會有。同樣的判斷錯誤也可能發生,而且後果比升職加薪嚴重的多。

濫用

Adversa.ai的創始人兼執行長亞歷克斯·波利亞科夫,則更擔心透過操縱機器學習過程對AI的濫用。 「透過科學家進行的研究,以及我們的人工智慧紅隊(指扮演攻擊方的角色)的真實評估工作都可以證明,愚弄人工智慧的決策,不管是電腦視覺還是自然語言處理或是其他任何事情,修改一組非常小的輸入就足夠了。」

例如,「eats shoots and leaves」這幾個單詞,只需加上不同的標點符號,就可以表示素食者或是恐怖分子。對人工智慧來說,想要窮盡所有單字在所有脈絡下的意義,幾乎是個不可能的任務。

此外,波利亞科夫已經先後兩次證明了愚弄人臉辨識系統是多麼容易。第一次讓人工智慧系統相信面前各種人都是伊隆馬斯克,第二次的例子是用一張人類看起來明顯是同一張圖像,卻被人工智慧解讀為多個不同的人。其中的原理,也就是操縱人工智慧學習過程的原理,幾乎可以被網路罪犯應用到任何人工智慧工具。

歸根結底,人工智慧只是人類教授的機器智能,我們離真正的人工智慧還有很多年,即使我們不去討論真正的人工智慧是否能實現。就目前而言,人工智慧應該被當作一種將許多規律的人類工作進行自動化處理的工具,畢竟它與人類一樣會有著類似的成功率和失敗率。當然,它的速度要快得多,而且成本也要比昂貴的分析師團隊低的多。

最後,不管是演算法偏差或AI被濫用,所有使用人工智慧的使用者都應該考慮這樣一個問題:至少在目前階段,我們不能過度依賴人工智慧的輸出結果。

以上是人工智慧(AI)可信嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!