史丹佛大學以人類為中心的人工智慧研究所(HAI)發布了2023年人工智慧指數,該指數分析了人工智慧的影響和進展。這份數據驅動的報告深入探討了與人工智慧相關的熱門主題,如研究、倫理、政策、民意和經濟學。
這項研究的主要發現包括人工智慧研究如何擴展到模式識別、機器學習和電腦視覺等專業領域。報告指出,自2010年以來,人工智慧出版物的數量增加了一倍以上。同時,人工智慧產業應用超越學術界,並引用了32個由產業生產的重要機器學習模型,而學術界僅生產了3個。研究將此歸因於訓練這些大型模型所需的大量資源。
傳統的人工智慧基準,如圖像分類基準ImageNet和閱讀理解測試SQuAD,不再足以衡量技術的高速進展,導致出現了新的基準,如BIG bench和HELM 。 HAI副主任兼人工智慧指數指導委員會成員Vanessa Parli在史丹佛大學的一篇文章中解釋說,許多人工智慧基準已經達到飽和點,幾乎沒有改進,研究人員必須根據社會希望如何與人工智慧互動來開發新的基準。她給了ChatGPT的例子,以及它如何通過許多基準測試,但仍然經常給出錯誤的資訊。
偏見和錯誤訊息等道德問題是該報告審查的人工智慧的另一個方面。 隨著流行的生成人工智慧模型的興起,如DALL-E 2、Stable Diffusion,當然還有ChatGPT,對人工智慧的道德濫用正在增加。報告指出,根據儲存人工智慧濫用的獨立資料庫AIAAIC,自2012年以來,人工智慧事件和爭議的數量增加了26倍。此外,對人工智慧倫理的關注正在迅速增長,因為研究發現,自2021以來,提交給FAccT人工智慧倫理會議的提交數量翻了一番多,而自2018年以來,提交數量增加了10倍。
大型語言模型的規模越來越大,費用也成為天價。 該報告以2022年發布的GooglePaLM模型為例,指出該模型的成本比2019年的OpenAI GPT-2高160倍,規模大360倍。整體而言,模型越大,培訓成本就越高。研究估計,Deepmind的Chinchilla模型和HuggingFace的BLOOM的訓練成本分別為210萬美元和230萬美元。
在全球範圍內,目前AI的私人投資與2021-2022年相比下降了26.7%,新創公司的AI融資也有所放緩。然而,在過去十年中,人工智慧投資大幅增加。 報告顯示,與2013年相比,2022年人工智慧的私人投資金額增加了18倍。採用新人工智慧措施的公司數量也出現了平穩期。報告稱,2017年至2022年間,採用人工智慧的公司比例翻了一番,但最近趨於平穩,約50-60%。
另一個令人感興趣的主題是政府對人工智慧日益增長的關注。 人工智慧指數分析了127個國家的立法記錄,發現2022年有37項包含「人工智慧」的法案成為法律,而2016年只有一項。研究發現,自2017年以來,美國政府已將人工智慧相關合約支出增加了2.5倍。法院也看到了人工智慧相關法律案件的激增:2022年,有110起此類案件與民事、智慧財產權和合約法有關。
人工智慧指數也深入研究了皮尤研究中心關於美國人對人工智慧的看法的一項調查。在一項針對10,000多名小組成員的調查中,45%的人表示對人工智慧在日常生活中的使用感到喜憂參半,37%的人表示他們感到擔憂多於興奮。只有18%的人感到興奮而不是擔憂。在主要的猶豫中,74%的人表示非常或有點擔心人工智慧被用來為人類做出重要決定,75%的人對人工智慧被用來了解人們的想法和行為感到不安。
以上是史丹佛大學「2023年AI指數」解讀人工智慧前景的詳細內容。更多資訊請關注PHP中文網其他相關文章!