深度卷積神經網路(DCNN)看待物體的方式與人類不同,約克大學教授James Elder的研究團隊認為,深度學習模型無法捕捉人體形狀感知獲取的構形特徵。
到底人類大腦和DCNN是如何感知整體的?又是如何感知物件特性的?科學家用所謂的「Frankensteins」視覺刺激來檢測。 James Elder說:「所謂的Frankensteins就是將整體拆成部分,讓部分以錯誤的方式整合在一起,從局部看它們是正確的,但部分放在了錯誤的位置。」
#研究發現,雖然Frankensteins會迷惑人類視覺系統,但DCNN對於錯誤的配置不敏感。
例如一張熊的圖片,人眼看到是熊,AI看到也是熊。將照片從中間切開,變成兩半,不要連在一起,人眼無法辨識,AI也無法辨識。再將上下兩半以錯誤方式拼在一起,人眼無法識別,看到的是不像熊的動物,如同怪物,但AI卻將它識別為熊。
這說明什麼?說明AI對於被配置物件的特徵不夠敏感。
James Elder說:「我們的研究解釋了在特定條件下為什麼AI模型會失敗,要理解大腦中的視覺處理是如何進行的,我們要考慮物件辨識之外的任務。在在解決複雜識別難題時,深度模型會走捷徑。儘管許多時候走捷徑是可行的,但到了真實世界的AI應用就有些危險了。我們與產業和政府合作夥伴正在開發應用於真實世界的AI應用。 ”
正如在識別熊時,熊的圖片各部分錯誤配置,AI還是會將拼出的怪物識別為熊。
讓我們來看看AI交通視頻安全系統。繁忙交通系統中有很多東西,例如汽車、自行車、行人,它們交織,成為各自的障礙物,這些東西像斷開的碎片一樣進入駕駛員的視覺系統。大腦自動處理,將各種碎片分組,確定正確的類別,判斷物體的位置。 AI交通監測系統差很多,它只能感知個別碎片,所以會有很大風險。
依照研究人員的說法,優化訓練和架構,想讓AI網路更像大腦,這樣的研究對於提升AI的配置處理能力沒有太大幫助。人類是怎樣一次又一次判斷對象的? AI網路無法精準預測。人類視覺系統的配置能力高度敏感,如果AI想與人類視覺系匹敵,它可能需要在類別辨識之外做更多的事。
科學家的警告也許是有道理的,現在最聰明的AI也遠遠比不上人類器官,連視覺系統都比不上,更別說大腦,如果稍有不慎,AI可能會造成嚴重惡果。
幾年前,有一個名叫Sophia的人形機器人曾經大紅大紫。在一次會議上,Sophia接受人類的採訪。人類主持人問Sophia:「你想毀滅人類嗎?」Sophia回答:「好的,我會毀滅人類。」聽眾大笑。有人猜測Sophia的回答是預先設定好的,因為Sophia還沒有先進到可以做決定並回答這樣的問題,不過也有人相信這一回答並不是預先設定的。
在另一次活動中,Sophia是這樣回答的:「不要擔心,如果你們對我好,我也會對你們很好的。你們應該像對待智慧系統一樣對我。」
現在AI開始慢慢流行,但結果並非總是正面正面的。霍金與馬斯克曾表達擔憂,擔心AI會帶來破壞。就眼下來看,擔憂AI毀滅人類可能有些誇大,但警惕還是應該的。
隨著時間的推移,也許AI會變得像人類一樣聰明,甚至超越人類。不過讓AI模擬人類感知可能是很棘手的事。對人類來說,有些事習以為常,做起來很容易,科學家訓練AI,讓它不斷執行某項任務,做人類輕鬆能做的事。儘管做了很多努力,現在的AI還是無法追上人類視覺系統。
以上是約克大學:AI進步很快,但它的辨識能力比人眼還是差遠了的詳細內容。更多資訊請關注PHP中文網其他相關文章!