首頁 > 科技週邊 > 人工智慧 > ChatGPT 真的會接管世界嗎?

ChatGPT 真的會接管世界嗎?

WBOY
發布: 2023-04-12 19:28:01
轉載
1594 人瀏覽過

ChatGPT 真的會接管世界嗎?

ChatGPT 是 OpenAI 開發的一項新技術,它非常擅長模仿人類交流,以至於許多人認為它將很快接管世界——以及其中的所有工作。

在 2 月 8 日由布朗大學卡尼腦科學研究所組織的交流中,兩位來自不同研究領域的學者討論了人工智慧與人類智慧之間的相似之處。

關於 ChatGPT 神經科學的討論讓與會者得以一窺當下機器學習模型的內幕。

電腦科學助理教授兼 Google AI 研究科學家 Ellie Pavlick 表示,儘管圍繞新技術的所有討論很多,但該模型並沒有那麼複雜,甚至都不是新的。

她解釋說,在最基本的層面上,ChatGPT 是一種機器學習模型,旨在預測句子中的下一個單詞,下一個表達等。

Pavlick 說,這種類型的預測學習模型已經存在了幾十年。長期以來,電腦科學家一直在嘗試建立表現出這種行為並可以用自然語言與人類交談的模型。為此,模型需要存取傳統計算組件的資料庫,使其能夠「推理」過於複雜的想法。

新的是 ChatGPT 的訓練或發展方式。它可以存取深不可測的大量數據——正如 Pavlick 所說,「網路上的所有句子」。

「ChatGPT 本身並不是拐點,」Pavlick 說。 「拐點是在過去五年的某個時候,基本上相同的結構模型有所增加,但它們變得越來越大。正在發生的事情是,隨著它們變得越來越大,它們的表現也越來越好。」

ChatGPT 及其競爭產品可供大眾免費使用的方式也很新穎。 Pavlick 說,即使在一年前,要與像ChatGPT 這樣的系統進行交互,一個人也需要訪問像Brown 的Compute Grid 這樣的系統,這是一種只有獲得特定權限才能供學生、教職員工使用的專用工具,並且還需要一個公平的精通技術的數量。

但是,現在,任何人,無論其技術能力如何,都可以使用 ChatGPT 時尚、流線型的介面。

CHATGPT 真的像人一樣思考嗎?

Pavlick 說,用如此龐大的資料集訓練電腦系統的結果是,它似乎可以識別出一般模式,並且看起來能夠生成非常逼真的文章、故事、詩歌、對話、戲劇等。

它可以產生假新聞報導和假科學發現,並產生各種令人驚訝的有效結果——或「輸出」。

他們結果的有效性促使許多人相信機器學習模型可以像人類一樣思考。但是他們呢?

ChatGPT 是一種人工神經網絡,認知、語言和心理科學以及計算機科學教授 Thomas Serre 解釋說。這意味著硬體和程式設計是基於一組相互關聯的節點​​,其靈感來自大腦中神經元的簡化。

Serre 說,在電腦大腦和人腦學習新資訊並使用它來執行任務的方式上確實存在許多引人入勝的相似之處。

「有研究開始表明,至少從表面上看,像ChatGPT 這樣的演算法使用和利用來處理語言訊息的單字和句子表示類型與大腦似乎在做什麼之間可能存在某種聯繫, 」他說。

例如,ChatGPT 的主幹是一種稱為 Transformer 網路的最先進的人工神經網路。這些源自自然語言處理研究的網路最近開始主宰整個人工智慧領域。

Transformer 網路有一種特殊的機制,電腦科學家稱之為“自我注意”,這與已知發生在人腦中的注意機制有關。

Serre 說,與人腦的另一個相似之處是使該技術如此先進的關鍵方面。

他解釋說,過去,訓練電腦的人工神經網路學習和使用語言或執行影像辨識需要科學家執行繁瑣、耗時的手動任務,例如建立資料庫和標記物件類別。

現代大型語言模型,例如 ChatGPT 中使用的模型,無需這種明確的人工監督即可進行訓練。而這似乎與 Serre 所說的一種被稱為預測編碼理論的有影響力的大腦理論有關。這是假設當一個人聽到某人說話時,大腦會不斷地做出預測並對接下來會說什麼產生預期。

雖然這個理論是幾十年前提出的,但塞爾說它還沒有在神經科學中得到充分的檢驗。然而,它目前正在推動大量的實驗工作。

「我想說,至少在這兩個層面上,這個網路的核心引擎的注意力機制一直在預測將要說的內容,這似乎在非常粗略的層面上與與神經科學相關的想法,」Serre 評論道。

最近有一項研究將大型語言模型使用的策略與實際的大腦過程聯繫起來,他指出:「我們仍然需要了解很多東西,但是神經科學研究中越來越多的研究表明這些大型語言的作用模型和視覺模型[在電腦中] 所做的與我們處理自然語言時大腦所做的事情並不完全無關。」

#從更黑暗的角度來看,就像人類學習過程容易受到偏見或腐敗的影響一樣,人工智慧模型也是如此。 Serre 說,這些系統透過統計關聯進行學習。數據集中占主導地位的任何資訊都將接管並推出其他資訊。

「這是人工智慧非常關注的一個領域,它並不特定於語言,」Serre 說。他列舉了網路上白人男性的過度代表如何使一些臉部辨識系統產生偏見,以至於他們無法辨識看起來不是白人或男性的臉。

「系統的好壞取決於我們提供給它們的訓練數據,而且我們知道訓練數據一開始並不是那麼好,」Serre 說。

數據也不是無限的,他補充說,特別是考慮到這些系統的規模和它們的貪婪胃口。

Pavlick 說,ChatCPT 的最新版本包括強化學習層,這些層起到護欄的作用,有助於防止有害或仇恨內容。但這些仍在進行中。

「部分挑戰在於…你不能給模型一個規則——你不能只是說,『永遠不要生成這樣或那樣的東西,』」Pavlick 說。

「它透過例子學習,所以你給它很多事情的例子,然後說,『不要做這樣的事情。做這樣的事情。因此,總是有可能找到一些小技巧讓它做壞事」

CHATGPT 不會做夢

人類大腦和神經網路的一個不同領域是在睡眠中——具體來說,是在做夢時。儘管 AI 生成的文字或圖像看起來超現實、抽像或荒謬,但 Pavlick 表示,沒有證據支持生物做夢過程與生成 AI 的計算過程之間存在功能相似性的概念。

她說,重要的是要了解像 ChatGPT 這樣的應用程式是穩態系統——換句話說,它們不會在網路上即時發展和變化,儘管它們可能會在離線時不斷完善。

「這不像 [ChatGPT] 重播和思考,並試圖以新的方式組合事物,以鞏固它所知道的或大腦中發生的任何事情,」帕夫利克說。

「這更像是:完成了。這就是系統。我們稱之為透過網路的前向傳遞——沒有來自它的回饋。它沒有反思它剛剛做了什麼,也沒有更新它的方式。」

Pavlick 說,當AI 被要求製作,例如,關於克雷布斯循環的說唱歌曲,或者某人的狗的迷幻圖像時,輸出可能看起來很有創意,但實際上它只是系統已經完成的任務的混搭被訓練去做。

與人類語言使用者不同,每個輸出不會自動改變每個後續輸出,或增強功能,或以人們認為夢想起作用的方式工作。

Serre 和 Pavlick 強調,任何關於人類智慧或人工智慧的討論都需要注意的是,科學家們對這兩個系統仍有許多需要了解的地方。

至於關於 ChatGPT 的炒作,特別是神經網路在創建幾乎比人類更人性化的聊天機器人方面的成功,Pavlick 說這是當之無愧的,特別是從技術和工程的角度來看。

「這是非常令人興奮!」 她說。 「我們長期以來一直想要這樣的系統。」

以上是ChatGPT 真的會接管世界嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板