3月30日訊息,特斯拉執行長馬斯克(Elon Musk)、蘋果共同創辦人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他1000多人日前簽署了一封公開信,呼籲暫停訓練比GPT-4更強大的AI系統。美國主流網路媒體BI認為,為了全社會的利益,AI開發需要放慢腳步。
在公開信中,沃茲尼亞克、馬斯克等人要求在AI技術變得日益強大之際,為其設置安全護欄,並暫停訓練更先進的AI模型。他們認為,對於像OpenAI的GPT-4這樣強大的AI模型,「只有在我們確信它們的影響是積極的、風險是可控的情況下才應該發展」。
當然,這並不是人們首次呼籲為AI設定安全護欄。然而,隨著AI變得越來越複雜、越來越先進,要求保持謹慎的呼聲也不斷升高。
美國康乃爾大學數位與資訊法教授詹姆斯·格里梅爾曼(James Grimmelmann)表示:「放慢新AI模型的開發速度是一個非常好的主意,因為如果AI最終對我們有利,那麼等待幾個月或幾年也沒有壞處,我們無論如何都會到達終點。而如果它是有害的,那我們也為自己爭取了額外的時間,以製定應對的最佳方式,並了解如何與其對抗。」
去年11月,當OpenAI的聊天機器人ChatGPT上市時,引起了巨大轟動。可以理解的是,人們開始推廣ChatGPT的功能,而它對社會的破壞性很快就顯現出來了。 ChatGPT開始通過醫生職業考試,提供如何製作炸彈的說明,甚至為自己創造了另一個自我。
我們越多使用AI,特別是ChatGPT或文字轉換工具Stable Diffusion等所謂的生成式人工智慧(AIGC)工具,我們就越能看到它的缺點,它製造偏見的潛力,以及我們人類在使用它的力量時顯得多麼無力。
BI編輯哈桑·喬杜里(Hasan Chowdhury)寫道,AI有可能「成為渦輪增壓機,加速我們的錯誤蔓延」。就像社群媒體一樣,它可以利用人類最好的和最壞的東西。但與社群媒體不同的是,AI將更多地融入人們的生活。
ChatGPT和其他類似的AI產品已經傾向於扭曲資訊和犯錯,沃茲尼亞克曾公開談論過這一點。它很容易產生所謂的「幻覺」(不真實訊息),就連OpenAI執行長薩姆·阿爾特曼(Sam Altman)也承認,該公司模型可能會產生種族、性別歧視和帶有偏見的答案。 Stable Diffusion也遇到了版權問題,並被指控從數位藝術家的作品中竊取靈感。
隨著AI融入更多的日常技術中,我們可能會在更大範圍內為世界帶來更多錯誤訊息。即使是AI來說看似良性的任務,例如幫忙策劃假期,也可能不會產生完全可信的結果。
需要明確的是,AI是一項令人難以置信的變革性技術,特別是像ChatGPT這樣的AIGC。開發機器來完成人們討厭的大部分乏味工作,本質上並沒有錯。
儘管這項技術在勞動力中造成了生存危機,但它也被譽為科技業的平等工具。目前也沒有證據表明,ChatGPT準備在未來幾年領導一場機器人叛亂。
許多AI公司都有倫理學家參與,以負責任的態度開發這項技術。但是,如果匆忙推出產品的重要性高於其社會影響,專注於安全創建AI的團隊就無法安心完成工作。
速度似乎也是這股AI熱潮中不可忽略的因素。 OpenAI認為,如果該公司行動夠快,就可以抵禦競爭,成為AIGC領域的領導者。這促使微軟、谷歌和幾乎所有其他公司爭相效仿。
在強大的AI模型準備就緒之前就發布給公眾體驗,並不能讓這項技術變得更好。人們還未找到AI的最佳用例,因為開發人員必須撲滅他們所創造技術引發的喧囂,而用戶則被噪音分散了注意力。
馬斯克等人的公開信也受到其他人批評,他們認為其沒有切中要害。
華盛頓大學教授艾米麗·本德(Emily M. Bender)在推特上表示,馬斯克和其他科技領袖在炒作週期中只關注AI的強大程度,而不是它能造成的實際損害。
康乃爾大學數位與資訊法教授格里梅爾曼補充說,在這封公開信上簽名的科技領袖“姍姍來遲”,並打開了一個潘朵拉盒子,可能給自己帶來麻煩。他說:「現在他們已經在這封信上簽名,那麼他們就不能轉身再說,不能對自動駕駛汽車等其他技術施行同樣的政策。」
暫停開發或施加更多監管可能會也不會取得成果。但現在,話題似乎已經轉向。 AI已經存在了幾十年,或許我們可以再多等幾年。
以上是美媒:馬斯克等人呼籲暫停AI訓練是對的 為了安全需要放慢腳步的詳細內容。更多資訊請關注PHP中文網其他相關文章!