3月21日消息,上週人工智慧新創組織OpenAI執行長山姆·阿爾特曼(Sam Altman)正在接受採訪時表示,人工智慧可能是“人類迄今為止所開發的最偉大技術”,將重塑現有社會。同時,他也承認這項技術有風險,對此還是「有點畏懼」。
阿爾特曼強調,人工智慧會帶來真正的危險,但也可能是“人類迄今為止開發出來的最偉大技術”,可以重塑社會、為生活帶來翻天覆地的變化。
他說:「我們在這方面必須小心……我認為值得慶幸的是,我們對此有點畏懼之心。」
阿爾特曼在採訪中談到了OpenAI最近發布的最新版人工智慧語言模型GPT-4。他強調,ChatGPT的上線需要監管機構和全社會的共同參與,各種回饋有助於阻止人工智慧技術為人類帶來潛在負面影響。他補充說,自己一直與政府官員保持「定期聯繫」。
ChatGPT上線僅幾個月時間,每月活用戶數就突破1億,被公認為史上成長最快的消費級應用程式。根據瑞銀(UBS)的一項研究,TikTok花了9個月才吸引到1億月活用戶,Instagram則花了將近三年時間。
雖然尚“不完美”,但阿爾特曼說,GPT-4在美國法考中取得了排名第90位的好成績,在SAT數學考試中也獲得了近乎完美的分數。現在GPT-4可以熟練地用市面上的大多數程式語言編寫電腦程式碼。
GPT-4只是OpenAI朝著最終打造通用人工智慧方面邁出的一小步。當人工智慧技術取得突破性進展時,就會出現比人類更聰明的人工智慧系統,這就是所謂的通用人工智慧。
儘管阿特曼讚許自家產品的成功,但也承認人工智慧可能存在的危險讓他夜不能寐。
阿爾特曼說:“我特別擔心這些模型會被用於大規模生成虛假信息。”“既然它們越來越擅長編寫計算機代碼,那麼完全可以用於進攻性網絡攻擊。”
但阿爾特曼並不認為人工智慧模式會像科幻小說所描述那樣不再需要人類,可以自行做決定,規劃統治世界。 「它等著有人給它輸入訊息,」阿爾特曼說,「這在很大程度上仍是由人類控制的工具。」
然而,阿爾特曼說自己的確擔心哪些人會控制人工智慧。他補充說:「總是會有人不遵守我們設定的一些安全規則。」「我認為,弄清楚如何對此做出反應、如何監管、如何處理,留給全社會的時間不多了。」
在評論掌握人工智慧技術就可能「統治世界」的觀點時,阿爾特曼說:「這肯定是一個讓人不寒而慄的說法。」「相反,我希望的是,我們不斷開發出越來越強大的系統,讓人們都可以用不同的方式使用這些系統,讓系統融入我們的日常生活,融入經濟,去充分發揮人的意願。」
根據OpenAI的說法,GPT-4透過迭代有了巨大改進, 例如能將影像理解為輸入。展示顯示,GTP-4能描述冰箱裡的東西,解決謎題,甚至闡明了網路圖片背後隱藏的含義。
但阿爾特曼表示,ChatGPT等人工智慧語言模型存在的固有問題是錯誤訊息,程式可能會給用戶提供事實上不準確的資訊。
阿特曼說:「我最想提醒人們的是所謂『幻覺問題』。」「這個模特兒的確會信誓旦旦地陳述一件事情,讓完全捏造的東西也宛如事實。」
根據OpenAI的說法,人工智慧模型之所以有這個問題,部分原因是使用演繹推理而非記憶。
OpenAI首席技術長米拉·穆拉蒂(Mira Murati)曾表示:「GPT-3.5和GPT-4最大區別之一是後者在推理方面的湧現能力更強。」
穆拉蒂說:「我們的目標是人工智慧可以預測接下來會出現哪個單詞,這就是對語言本質的理解。」「我們希望這些模型能像人類一樣看待和理解世界。」
阿爾特曼說:「你要認識到,我們所開發的模型是一個推理引擎,而不是一個儲存事實資訊的資料庫。」「當然,它們也可以作為事實資料庫,但這並不是特別之處。我們想讓它們實現的是推理能力,而不是記憶。」
阿爾特曼和他的團隊希望,「隨著時間推移,這個模型將成為真正的推理引擎。」他說,模型最終會依靠網路資訊和自行演繹推理來辨別哪些資訊是真實的、哪些是虛構的。根據OpenAI的數據,GPT-4產生準確資訊的機率比先前版本高40%。不過阿爾特曼表示,人們不應該用這套系統當作準確資訊的主要來源,並鼓勵使用者仔細檢查程式所產生的結果。
很多人也關注ChatGPT和其他人工智慧語言模型會產生哪種資訊。根據阿爾特曼的說法,ChatGPT不會告訴用戶如何製造炸彈,因為系統中設置了安全措施。
「我所擔心的是…創造這項技術的不止我們一家,」阿爾特曼說。 「總是會有人不像我們那樣加進去一些安全措施。」
根據阿爾特曼的說法,對於所有這些人工智慧的潛在危險而言,還是有一些解決方案和保障措施。其中之一是讓全社會在風險較低時隨意擺弄ChatGPT,從中了解人們會如何使用它。
穆拉蒂就表示,現在ChatGPT對公眾開放的主要原因是從中「收集大量回饋」。她認為,隨著公眾繼續測試OpenAI應用程序,這樣就更容易確定哪些地方需要安全措施。
穆拉蒂說:「人們用它們做什麼、它有什麼問題、有什麼缺點,都能夠讓我們及時介入並改進技術。」
阿爾特曼也強調,大眾能夠與每個版本的ChatGPT互動很重要。他說,「如果我們只是窩在實驗室裡進行秘密研究,比如說開發出GPT-7,然後一下子公開……我認為這會帶來更多負面影響。」「人們需要時間來刷新認知、做出反應,並最終習慣這項技術,我們也需要時間了解系統的缺點在哪裡,如何緩解不利影響。」
阿爾特曼透露,OpenAI有一個團隊專門制定政策,他們決定哪些資訊可以輸入ChatGPT,以及ChatGPT能與使用者分享哪些資訊。
阿爾特曼補充說:「(我們)正在與各位政策和安全專家交流,對系統進行審查,就是想要解決這些問題,並推出自認為安全可靠的東西。」「再說一次,我們不可能一次就做到完美,但吸取教訓並在風險相對較低的時候找到安全邊界非常重要。」
人們之所以擔心人工智慧技術的顛覆能力,其中之一是認為它會取代現有的工作。阿爾特曼說,人工智慧可能在不久將來取代一些工作,關鍵看這種情況發生的速度有多快。
阿爾特曼說:「我認為,經過幾代人的努力,人類已經證實自身能夠適應重大技術變革。」「但如果這種情況發生在幾年內,我的確最擔心會帶來哪些變化…」
但他鼓勵人們將ChatGPT視為一種工具,而不是自己工作的替代品。阿爾特曼補充說,「人類的創造力是無限的,我們會找到新的工作,會找到新的事情去做。」
阿爾特曼認為,作為人類工具的話,ChatGPT產生的效果大於帶來的風險。
他說:“我們口袋裡都可以有一位量身定制的大教育家,去幫助我們學習。”“我們可以為每個人提供醫療建議,這是我們今天無法實現的。”
由於一些學生用ChatGPT作弊,ChatGPT已經在教育領域引起不少爭議。對於ChatGPT是否可以作為學生學習的延伸,或者是否會影響學生的自學動機,教育工作者的意見不一。
阿爾特曼說:「教育方式必須改變,但隨著科技的發展,這種情況已經發生過很多次。」他補充說,學生的老師將不再局限於課堂,「最讓我興奮的一點是,它能夠為每個學生帶來更好的個人化學習。」
阿爾特曼和他的團隊希望,任何領域的用戶都能將ChatGPT視為自己的“副駕駛”,例如幫助用戶編寫大量計算機程式碼或解決問題。
阿爾特曼說:「我們可以為每個行業提供這樣的服務,這樣人們就可以有更高的生活品質。」「我們還會擁有今天甚至無法想像的新事物,這也是我們的承諾。」
以上是ChatGPT之父'夜不能寐':我真擔心大模型被濫用的詳細內容。更多資訊請關注PHP中文網其他相關文章!