機器會思考嗎?人工智慧可以像人類一樣聰明嗎?
一項最新研究表明,人工智慧或許可以做到了。
在一項非語言圖靈測試中,義大利技術研究院Agnieszka Wykowska 教授領銜的研究團隊發現,類人行為變異性(Behavioral variability)可以模糊人與機器之間的區別,即可以幫助機器人看起來更像人類。
具體來說,他們的人工智慧程式在與人類隊友玩有關形狀和顏色匹配的遊戲時,模擬了人類反應時間的行為變異性,通過了非語言圖靈測試。
相關研究論文以「Human-like behavioral variability blurs the distinction between a human and a machine in a nonverbal Turing test」為題,已發表在科學期刊 Science Robotics 上。
研究團隊表示,這項工作可以為未來的機器人設計提供指導,賦予機器人具有人類可以感知的類似人類的行為。
對於這項研究,林雪平大學認知系統教授Tom Ziemke 和博士後研究員Sam Thellman 認為,研究結果“模糊了人與機器之間的區別”,為人們對人類社會認知的科學理解等方面做出了非常有價值的貢獻。
但是,「人類相似性不一定是人工智慧和機器人技術發展的理想目標,讓人工智慧不那麼像人類可能是一種更明智的做法。」
1950 年,「電腦科學與人工智慧之父」艾倫·圖靈(Alan Turing)提出了一種用於判定機器是否具有智慧的測試方法,即圖靈測試。
圖靈測試的關鍵思想是,有關機器思維和智慧可能性的複雜問題,可以透過測試人類是否能夠分辨出他們是在與另一個人還是與一台機器在互動來驗證。
如今,圖靈測試被科學家用來評估應該在人工智慧體上實現什麼樣的行為特徵,才能使人類不可能將電腦程式和人類行為區分開。
人工智慧先驅司馬賀(Herbert Simon)就曾表示:「如果程式表現出的行為類似於人類表現出來的,那我們就稱它們是智能的。」 類似地,Elaine Rich 將人工智能定義為「研究如何讓電腦去做目前人做得更好的事」。
而非語言圖靈測試,是圖靈測試的一種形式。對於人工智慧來說,通過非語言圖靈測試並不容易,因為它們在檢測和區分其他人(物體)的微妙行為特徵方面,表現得不像人類那樣熟練。
那麼,一個類人機器人是否能夠通過非語言圖靈測試,在其物理行為中體現人類特徵呢?在非語言圖靈測試中,研究團隊試圖搞清楚能否透過程式設計讓人工智慧在類似人類行為變異的範圍內改變反應時間,從而被視為人類。
為了做到這一點,他們將人類和機器人安排在一個螢幕上有不同顏色、形狀的房間裡。
圖|機器人與人類共同執行任務。 (資料來源:該論文)
當形狀或顏色改變時,參與者就會按下按鈕,而機器人則透過點擊螢幕上顯示的相反顏色或形狀來回應此訊號。
圖|透過按下按鈕來回應(資料來源:該論文)
在測試過程中,機器人有時由人類遠端控制,有時由被訓練模仿行為變異性的人工智慧控制。
圖|參與者被要求判斷機器人行為是預先編程的還是由人類控制的。 (來源:該論文)
結果表明,參與者可以輕鬆分辨機器人何時是由另一個人操作的。
但是,當機器人被人工智慧操作時,參與者猜錯的機率卻超過了 50%。
圖|圖靈測試的平均準確率。 (資料來源:該論文)
這就意味著,他們的人工智慧通過了非語言圖靈測試。
但是,研究人員也表示,類人行為的可變性可能只是透過實體人工智慧的非語言圖靈測試的一個必要不充分條件,因為它在人類環境中也可以表現出來。
長期以來,人工智慧研究一直將人類相似性作為目標和衡量標準,Wykowska 團隊的研究證明,行為變異性或許可以用來讓機器人更像人類。
Ziemke 等人卻認為讓人工智慧不那麼像人類可能是一種更明智的做法,並以自動駕駛汽車和聊天機器人兩個案例做了闡述。
例如,當你在馬路上準備穿過人行橫道時,看到一輛汽車正在接近你,從遠處看,你可能無法判斷它是否是一輛自動駕駛汽車,所以你只能根據汽車的行為來判斷。
(來源:Pixabay)
但是,即使你看到有人坐在方向盤前面,你也不能確定這個人是在主動控制車輛,還是僅僅在監控車輛的行駛操作。
「這對交通安全有著非常重要的影響,如果自動駕駛汽車不能向其他人表明它是否處於自動駕駛模式,可能會導致不安全的人機互動。」
#也許有些人會說,理想情況下,你並不需要知道一輛車是不是自動駕駛,因為從長遠來看,自動駕駛汽車可能比人類更擅長駕駛。但是,目前而言,人們對自動駕駛汽車的信任還遠遠不夠。
聊天機器人,則是更接近圖靈最初測試的現實場景。許多公司在他們的線上客戶服務中使用聊天機器人,其中的對話主題和互動方式相對有限。在這種情況下,聊天機器人通常或多或少與人類沒有區別。
(來源:Pixabay)
那麼,問題就來了,企業是否應該將聊天機器人的非人類身分告訴客戶呢?一旦告訴了,往往會導致消費者產生負面反應,例如信任下降。
正如上述案例所說明的那樣,雖然從工程學的角度來看,類人行為可能是一項令人印象深刻的成就,但人機的不可區分性卻帶來了明顯的心理、倫理和法律問題。
一方面,與這些系統互動的人必須知道他們所互動的內容的性質,以避免欺騙。以聊天機器人為例,美國加州自 2018 年起就制定了聊天機器人資訊揭露法,明確揭露是一項嚴格的要求。
另一方面,還有比聊天機器人和人類客服更無法區分的例子。例如,當涉及自動駕駛時,自動駕駛汽車和其他道路使用者之間的互動並沒有同樣明確的起點和終點,它們通常不是一對一的,而且它們有一定的即時約束。
因此,問題在於,關於自動駕駛汽車的身份和能力,應該在何時、以何種方式來傳達。
此外,完全自動化的汽車可能還需要幾十年的時間才能出現。因此,在可預見的未來,混合交通和不同程度的部分自動化可能會成為現實。
關於自動駕駛汽車可能需要以什麼樣的外部介面來與人交流,已有很多研究。然而,人們對於兒童、殘疾人士等弱勢道路使用者實際上能夠和願意應對的複雜性,還知之甚少。
因此,上述的一般規則,即“與這樣的系統交互的人必須被告知交互對象的性質”,可能只有在更明確的情況下才有可能遵循。
同樣,這一矛盾心理也反映在社交機器人研究的討論中:鑑於人類傾向於將精神狀態擬人化並賦予其類似人類的屬性,許多研究人員旨在讓機器人在外觀和行為上更像人類,這樣它們就可以或多或少地以類似人類的方式互動。
然而,也有人認為,機器人應該很容易被識別為機器,以避免過度擬人化的屬性和不切實際的期望。
「因此,更明智的做法可能是利用這些發現讓機器人變得不那麼像人類。」在人工智慧的早期,模仿人類可能是一個業內的共同目標,「但在人工智慧已經成為人們日常生活的一部分的今天,我們至少需要思考,在什麼方向上努力實現類似人類的人工智慧才真正有意義」。
以上是人工智慧,有必要像人類一樣嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!