幻覺?馬斯克TruthGPT也搞不定! OpenAI聯合創辦人直言很複雜
上個月,馬斯克瘋狂呼籲叫停超級AI研發6個月。
還沒等多久,老馬就坐不住了,直接官宣推出一個名為TruthGPT的AI平台。
馬斯克曾表示,TruthGPT將是一個「最大的求真人工智慧」,它將試圖理解宇宙的本質。
他強調,一個關心理解宇宙的人工智慧不太可能滅絕人類,因為我們是宇宙中有趣的一部分。
然而,「幻覺」,到現在還沒有哪個語言模型能夠搞定。
最近,OpenAI共同創辦人便解釋為什麼TruthGPT的遠大理想的實現是如此地困難。
TruthGPT理想是泡棉?
馬斯克的X.AI想要建立的TruthGPT,是一種誠實的語言模型。
這麼做,直接將矛頭對準ChatGPT。
因為,先前,像ChatGPT這樣的AI系統經常產生錯誤輸出等經典幻覺案例,甚至支持某些政治信念的報道。
雖然ChatGPT可以讓使用者更控制語言模型去解決問題,但「幻覺」仍然是OpenAI、Google以及未來馬斯克的人工智慧公司必須處理的核心問題。
OpenAI共同創辦人兼研究員John Schulman在他的演講「RL和Truthfulness – Towards TruthGPT」中討論了這些挑戰以及如何應對這些挑戰。
為啥有「幻覺」?
根據Schulman的說法,幻覺大致可以分為兩種類型:
1. “模式完成行為”,即語言模型無法表達自己的不確定性,無法質疑提示中的前提,或繼續先前犯的錯誤。
2. 模型猜測錯誤。
由於語言模型代表一種知識圖譜,其中包含來自其自身網路中訓練資料的事實,因此微調可以理解為學習一個函數,該函數在該知識圖譜上運行並輸出token預測。
例如,微調資料集可能包含「星際大戰的類型是什麼?」這個問題,以及答案「科幻」。
如果這些資訊已經在原始訓練資料中,即它是知識圖譜的一部分,那麼模型不會學習新訊息,而是學習一種行為-輸出正確答案。這種微調也被稱為「行為克隆」。
但問題是,如果問題是關於「Han Solo的衍生電影的名字是什麼」出現在微調資料集中。
但如果答案「Solo」不是原始訓練資料集的一部分(也不是知識圖譜的一部分),即使網路不知道答案,它也會學習回答。
使用實際上正確但不在知識圖譜中的答案來微調,從而教會網路編造答案-即產生「幻覺」。相反,用不正確的答案進行訓練會導致網路隱瞞資訊。
因此,理想情況下,行為複製應始終基於網路知識,但創建或評估資料集的人類工作者來說,通常不知道這種知識,例如指令調優。
根據Schulman的說法,當其他模型建立微調資料集時也存在這個問題,就像羊駝公式的情況一樣。
他預測,具有較小知識圖譜的較小網絡,不僅會學會使用ChatGPT的輸出給出答案和遵循指令,而且學會更頻繁地產生幻覺。
OpenAI如何打擊幻覺?
首先,對於簡單的問題來說,語言模型大部分情況下能預測自己是否知道答案,還能表達不確定性。
因此,Schulman表示,微調資料集的時候,必須得讓模型學會怎麼表達不確定、怎麼應對前提被更改的情況,以及錯誤被承認的情況。
要把這些情況的實例餵給模型,讓它們學習。
但是模型在時機方面還是欠練,也就是說,它們並不知道該何時執行這些操作。
Schulman表示,這就是強化學習(RL)該出場的地方了。例如,基於人類回饋的強化學習(Reinforcement Learning with Human Feedback,RLHF)。
應用RL,模型就可以學習「行為邊界」,學習何時做出何種行為。
而另一個難題,則是檢索和引用來源的能力。
問題在於,有了複製行為的能力和RLHF,為什麼ChatGPT還會產生幻覺?
原因在於問題本身的難易。
雖然上述方法對於簡短的問題和答案效果不錯,但對於ChatGPT中常見的長格式設定就會出現其他問題了。
一方面,完全錯誤的答案也不太可能,大部分情況都是錯的和對的混在一起。
在極端情況下,可能就是100行程式碼中的一個錯誤而已。
在其他情況下,這些資訊在傳統意義上並不能說是錯的,而是有誤導性的。因此,在像ChatGPT這樣的系統中,人們很難根據資訊量或正確性來衡量輸出的品質。
但這種測量對於旨在訓練複雜行為邊界的RL演算法卻非常重要。
目前,OpenAI依賴於RLHF的基於排名的獎勵模型,該模型能夠預測它認為兩個答案中哪個更好,但不會給出有效的信號來明確哪個答案好了多少、資訊量大了多少或正確了多少。
Schulman表示,它缺乏向模型提供回饋以學習精細行為邊界的能力。而這種精細的行為邊界,才是有可能解決幻覺的道路。
此外,這個過程還會因為RLHF標記過程中的人為出錯而變得更加複雜。
因此,雖然Schulman將RL視為減少幻覺的重要方式之一,但他認為仍然存在許多還沒解決的問題。
除了前面提到的獎勵模型究竟需要什麼樣子才能引導正確的行為之外,RLHF目前只依賴人類的判準。
這可能會使知識的產生變得更加困難。因為對未來的預測有時會導致較不令人信服的表達。
然而,Schulman認為,知識的生成是語言模型的下一個重要步驟,同時,他認為對未來的預測和給出推理規則等問題的理論構建,是亟待解決的下一類開放性問題。
Schulman說,一個可能的解決方案是,用其他AI模型來訓練語言模型。
OpenAI也認為,這種方法對於AI對準來說,很有意義。
ChatGPT架構師
身為ChatGPT架構師,John Schulman早在2015年還在讀博士學位的他,就加入OpenAI成為共同創辦人之一。
在一次訪談中,Schulman解釋了自己加入OpenAI的原因:
我想做人工智慧的研究,我認為OpenAI這家公司的使命雄心勃勃,並且致力於打造通用人工智慧。
儘管,在當時談論AGI似乎有些瘋狂,但我認為開始考慮它是合理的,我希望在一個地方談論AGI是可以接受的。
另外,根據Schulman透露,OpenAI將人類反饋強化學習這一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。
當時,也是OpenAI的成員,曾發表了一篇論文「從人類偏好中進行深度強化學習」就提到了這個方法。
#論文網址:https://arxiv.org/pdf/1706.03741.pdf
#OpenAI安全團隊之所以致力於這項工作,是因為想讓自己的模型符合人類的偏好ーー試圖讓模型真正傾聽人類意見,並試圖做人類想做的事情。
在GPT-3完成訓練的時候,然後Schulman決定加入這股潮流,因為他看到了整個研究方向的潛力。
當被問到第一次使用ChatGPT時,第一個反應是什麼的時候,Schulman的話語中透露著「無感」。
還記得去年ChatGPT橫空出世,讓許多人瞬間炸腦。
而在OpenAI內部沒有人對ChatGPT感到興奮。因為發表的ChatGPT是一個基於GPT-3.5較弱的模型,那時同事們在玩GPT-4了。
所以在那個時候,OpenAI沒有人對ChatGPT感到興奮,因為有這麼一個更強大,更聰明的模型已經被訓練過了。
對於未來人工智慧下一前沿領域看法,Schulman稱,AI在更艱難的任務上不斷進步,然後,問題就來了,人類應該做些什麼,在哪些任務下,人類可以在大模型幫助下有更大影響力,做更多的工作。
以上是幻覺?馬斯克TruthGPT也搞不定! OpenAI聯合創辦人直言很複雜的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

熱門話題

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

FP8和更低的浮點數量化精度,不再是H100的「專利」了!老黃想讓大家用INT8/INT4,微軟DeepSpeed團隊在沒有英偉達官方支援的條件下,硬生在A100上跑起FP6。測試結果表明,新方法TC-FPx在A100上的FP6量化,速度接近甚至偶爾超過INT4,而且比後者擁有更高的精度。在此基礎之上,還有端到端的大模型支持,目前已經開源並整合到了DeepSpeed等深度學習推理框架中。這項成果對大模型的加速效果也是立竿見影──在這種框架下用單卡跑Llama,吞吐量比雙卡還要高2.65倍。一名

寫在前面項目連結:https://nianticlabs.github.io/mickey/給定兩張圖片,可以透過建立圖片之間的對應關係來估計它們之間的相機姿態。通常,這些對應關係是二維到二維的,而我們估計的姿態在尺度上是不確定的。一些應用,例如隨時隨地實現即時增強現實,需要尺度度量的姿態估計,因此它們依賴外部的深度估計器來恢復尺度。本文提出了MicKey,這是一個關鍵點匹配流程,能夠夠預測三維相機空間中的度量對應關係。透過學習跨影像的三維座標匹配,我們能夠在沒有深度測試的情況下推斷度量相對
