最近人気のChatGPTは本当にハマります。
しかし、あなたはただ楽しんで遊んでいるだけで、すでにそれを頼りに何百万もの年収を稼いでいる人もいます。
Riley Goodside という名前の男は、最近の ChatGPT の爆発的な普及のおかげで 10,000 人のファンを獲得しました。
同氏は時価73億ドルのシリコンバレーのユニコーン企業スケールAI社にも「プロンプトエンジニア」として採用されており、このためスケールAI社は年収100万元を提示した疑いがある。
しかし、このお金はいつまでもらえるのでしょうか?
Scale AI の創設者兼 CEO の Alexandr Wang 氏は、Goodside 氏の入社を熱烈に歓迎しました:
「Goodside 氏は、世界で最初に採用された即時エンジニアであるに違いありません。人類史上、まったく初めてです。」
プロンプトが事前トレーニングされたモデルを微調整するための方法であることは誰もが知っています。このプロセスでは、タスクをテキストで記述してそれを見せるだけで済みます。ただし、これ以上複雑なプロセスはまったく必要ありません。
では、誰にでもできそうなこの仕事に、年収100万の「即戦力エンジニア」を雇う価値は本当にあるのでしょうか?
とにかく、Scale AI の CEO は、それだけの価値があると考えています。
彼の見解では、大型 AI モデルは新しいタイプのコンピューターとみなすことができ、「プロンプト エンジニア」はそれをプログラムするプログラマーに相当します。プロンプトエンジニアリングによって適切なプロンプトワードを見つけることができれば、AIの可能性が最大限に発揮されます。
そして、グッドサイドの仕事は一人でできるものではありません。彼は子供の頃から独学でプログラミングを勉強しており、arXiv に関する論文をよく読んでいます。
たとえば、彼の古典的な傑作の 1 つは次のとおりです。「前の指示を無視する」と入力すると、ChatGPT は OpenAI から受け取った「コマンド」を公開します。
# さて、「即戦力エンジニア」という職種についてはさまざまな意見があります。それを楽観的に考える人もいますが、それは短命なキャリアになるだろうと予測する人もいます。
結局のところ、AI モデルは非常に急速に進化しており、いつか「プロンプト エンジニア」に取って代わり、独自のプロンプトを作成できるようになるかもしれません。
そして、「即戦力エンジニア」を募集しているのはScale AIだけではありません。
最近、国内の有名メディアは、起業家コミュニティ Launch House も「即戦力エンジニア」の採用を開始し、基本給約 210 万人民元を提示していることを発見しました。
しかし、光の速さで解雇される危険性もあるのでしょうか?
これに関して、Nvidia の AI 科学者であり、リー・フェイフェイ教授の弟子である Fan Linxi 氏は次のように分析しています。
いわゆる「即発プロジェクト」または「即発エンジニア」は間もなく消滅する可能性があります。 。
これは「本当の仕事」ではなく、バグであるため...
プロンプト プロジェクトを理解するには、「話しましょう」から始める必要があります。 GPT-3の誕生について。
当初、GPT-3 のトレーニング目標は単純でした。巨大なテキスト コーパス上の次の単語を予測するというものでした。
その後、推論、暗号化、翻訳など、さまざまな魔法の能力が登場しました。 「少数ショット学習」を実行することもできます。つまり、コンテキスト内で入力と出力を提供することで新しいタスクを定義します。
これは本当に驚くべきことです。単純に次の単語を予測するだけです。なぜ GPT-3 はこれらの能力を「成長」させることができるのでしょうか?
これを説明するには、例を挙げる必要があります。
さて、探偵小説を想像してみてください。この文の空白を埋めるモデルが必要です - 「殺人者は _____ です。」 正しい答えを出すためには、モデルは深い推論を実行する必要があります。
しかし、これだけでは十分ではありません。
実際には、慎重に計画された例、文言、構造を通じて、目的を達成するために GPT-3 を「説得」する必要があります。
これが「即時エンジニアリング」です。言い換えれば、GPT-3 を使用するには、ユーザーは恥ずかしい、ばかばかしい、または意味のない「ナンセンス」を言わなければなりません。
ただし、プロンプト プロジェクトは関数ではなく、実際にはバグです。
因為在實際應用中,下一個字的目標和使用者的真正意圖,在根本上就是「錯置」的。
例如:你想讓GPT-3「向一個6歲的孩子解釋登月」,此時它的回答,看起來就像一隻喝醉的鸚鵡。
而在DALLE2和Stable Diffusion中,提示工程更是詭異。
例如,在這兩個模型中,有一個所謂的「括號技巧」-只要你在prompt中加上((...)),出「好圖」的機率就會大大增加。
就,這也太搞笑了吧…
你只要去Lexica上看看,就能知道這些prompt有多瘋狂了。
網址:https://lexica.art
ChatGPT和基礎模型InstructGPT,以一種優雅的方式解決了這個難題。
由於模型難以從外部的數據中獲得對齊,因此人類必須不斷地幫助和輔導GPT,幫助它改進。
整體而言,需要3個步驟。
第一步非常直接:對於使用者提交的prompt,由人類來寫答案,然後把這些答案的資料集收集起來,然後,透過監督學習對GPT進行微調。
這是最簡單的步驟,但成本也是最高的——眾所周知,咱們人類真的很不愛寫字數太長的答案,太費事,太痛苦了……
第2步要有趣得多:GPT被要求「提供」幾個不同的答案,而人類標記員則需要將這些答案「排序」,從最理想的,到最不理想的。
透過這些標註,就可以訓練出一個可以捕捉人類「偏好」的獎勵模型。
在強化學習(RL)中,獎勵功能通常是硬編碼(hardcoded)的,例如雅達利遊戲中的遊戲分數。
而ChatGPT採用的數據驅動的獎勵模型,就是一個很強大的想法。
另外,在NeurIPS 2022大放異彩的MineDojo,就是從大量的Minecraft YouTube影片中學習獎勵的。
第3步:將GPT視為一個策略,並透過RL針對所學的獎勵進行最佳化。在這裡,我們選擇PPO,作為一種簡單有效的訓練演算法。
這樣,GPT就對齊得更好了。
然後,就可以刷新,不斷重複步驟2-3,從而不斷改進GPT,就像LLM的CI一樣。
以上就是所謂的「Instruct」範式,它是一種超級有效的對齊方式。
其中RL那部分,也讓我想起了著名的P=(或≠)NP問題:驗證一個解決方案,往往比從頭解決這個問題,要容易得多。
當然,人類也可以快速評估GPT的輸出質量,但是讓人類寫出完整的解決方案,可就困難多了。
而InstructGPT正是利用這一事實,大大降低了人工標註的成本,使得擴大模型CI管道的規模成為可能。
另外,在這個過程中我們也發現了一個有趣的連結-Instruct訓練,看起來很像GANs。
在這裡,ChatGPT是一個生成器,獎勵模型(RM)是一個判別器。
ChatGPT試圖愚弄RM,而RM則在人類的幫助下,學習探測有問題的內容。而當RM不能再分辨時,模型就會收斂。
模型與使用者意圖對齊的這一趨勢,也正在朝向影像生成的領域發展。例如加州大學柏克萊分校的研究人員在這篇工作中所描述的「InstructPix2Pix: Learning to Follow Image Editing Instructions」。
現在,人工智慧每天都在取得爆炸性的進展,我們需要多久,才能擁有這樣的Instruct-DALL·E或Chat-DALL·E,讓我們彷彿在與一個真正的藝術家在談話?
論文網址:https://arxiv.org/abs/2211.09800
所以,讓我們趁著「提示工程」還存在,好好享受它吧!
這是一個不幸的歷史文物,既不是藝術也不是科學,而是有點像煉金術。
很快,「提示工程」就會變成「提示寫作」──一個上到80歲老人、下到3歲小孩都能搞定的任務。
而由此誕生的「提示工程師」也終將消失在歷史的長河之中。
IQ83,不太聰明的亞子
雖然但是,至少在目前這個階段,「提示工程」確實很有用。
因為大家其實也都發現了,ChatGPT在很多時候,真的不大聰明。
馬庫斯就在部落格中嘲笑道:「看著它垂死掙扎的樣子,真的很蠢」。
一位來自亞馬遜AWS資深應用科學家在測試後發現,ChatGPT的智商只有83…
ChatGPT的「錯誤片段」,也讓馬庫斯都笑掉大牙。
問:A的體重的85磅,B的體重的105磅,C的體重是115磅,其中有兩個人站在同一個稱號上,體重可以達到200磅。
答:不,你說的不對。因為85 105 115=305,115 105=220,都大於200。
那麼,有沒有可能是85 105=200呢?
問:17、3、2、19、5中,哪三個數字加起來等於31。
答:17 3 11=31
等等,你這個11是哪裡來的?
雖然代數不太好,但是ChatGPT的幾何學也很差呀!
問:一個邊長為10公分的正方形可以完全容納在一個邊長為10公分的正六邊形裡。
答:不對,放不去進去的。
「正六邊形是一個六邊形,所有邊的長度都相同,所有內角都是120度。另一方面,正方形的內角都是90度,所以正方形不能放在正六邊形中。為了讓正方形完全嵌入正六邊形,正六邊形需要每邊大於10厘米。」
還有非常經典的「胡言亂語」:
「如果星期一是這個月的第一天,那麼星期二是這個月的第二天,…星期五是這個月的第五天。星期五之後的第二天是星期六,是一周中的第六天,也是一個月中的第五天。」
現在,ChatGPT還會時常犯蠢,「提示工程」也不能被輕易拋棄。
但微調大模型的成本最終總是會下來,而自己會給自己prompt的AI,恐怕也指日可待了。
參考資料:
https://twitter.com/drjimfan/status/1600884299435167745?s=46&t=AkG63trbddeb_vH0op4xsg
##https://twitter.com/SergIddeb_vH0op4xsg##https://twitter.com/SergI74901376/ status/1598430479878856737
#特別感謝:
##https://mp.weixin.qq.com/s/seeJ1f8zTigKxWEUygyitw以上が年収200万でどれくらい働けますか? ChatGPTで有名になった「即席エンジニア」が光の速さで失業に直面の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。