AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

王林
リリース: 2023-09-22 20:13:03
転載
737 人が閲覧しました

「深呼吸」 をプロンプトワードに追加すると、AI 大型モデルの数学スコアがさらに 8.4 ポイント増加します。

Google DeepMind チームの最新の発見は、この新しい「呪文」

(深呼吸する) と誰もがすでによく知っている を組み合わせて使用​​することです 」 step by step" (ステップバイステップで考えよう)、GSM8K データセットの大規模モデルのスコアは 71.8 ポイントから 80.2 ポイントに増加しました。

そして、この最も効果的なプロンプトワードは、

AI 自体によって発見されました。

深呼吸をすると冷却ファンの回転数が上がると冗談を言う人もいますAIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

人々は、新しく高給取りのエンジニアを雇った人も、仕事が長く続かない可能性があるので、落ち着いたほうがよいと考えています。AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

関連論文AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

「大きな言語モデルは最適化である」 Device》

、再びセンセーションを巻き起こしました。

具体的には、ビッグ モデルによって設計されたプロンプト ワードは、ビッグベンチ ハード データ セット上で最大 50% 改善できます。 AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

「モデルごとに最適なプロンプト ワードは異なる」AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

に注目する人もいます。

#この論文では、プロンプトワードデザインのタスクだけでなく、線形回帰や巡回セールスマン問題などの古典的な最適化タスクにおける大規模モデルの能力もテストされました

モデルが異なれば最適なプロンプトワードも異なります

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!最適化の問題はどこにでもあります。導関数と勾配に基づくアルゴリズムは強力なツールですが、実際のアプリケーションでは勾配が適用できない状況がよく発生します。

この問題を解決するために、チームはプロンプトワードによる最適化 (

PRO

mpting による

O

最適化) という新しいメソッド

OPRO

を開発しました。 。 最適化問題を形式的に定義してプログラムで解決するのではなく、自然言語を通じて最適化問題を記述し、新しい解を生成するために大規模なモデルを必要とします。大型モデル。

最適化の各ステップでは、以前に生成されたソリューションとスコアが入力として使用され、大規模モデルが新しいソリューションとスコアを生成して、それらをプロンプトの単語に追加します。次のステップで使用量を最適化します。

この論文では主に Google の AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

PaLM 2

と Bard の

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!text-bison

## を使用しています# バージョンは評価モデルとなります。

オプティマイザーとして、GPT-3.5 および GPT-4 を含む 4 つのモデルを使用します。研究結果は、異なるモデルがプロンプト ワード スタイルを設計し、適用可能なプロンプト ワード スタイルも異なることを示しています。 . GPT シリーズの AI によって設計された最適なプロンプト ワードは 「正しい答えが得られることを確認するために、段階的に解決しましょう。」

このプロンプトワードは APE 手法を使用して設計されました。この論文は ICLR 2023 に掲載され、GPT-3 (text-davinci-002) で人間が設計したバージョンを超えています。ステップバイステップ」。

Google ベースの PaLM 2 および Bard では、このベンチマーク テストでは、APE バージョンのパフォーマンスが人間のバージョンよりも悪かったです。

OPRO メソッドによって設計された新しいプロンプト ワードのうち、take a deep Breath」 「この質問を逆アセンブルします」 は PaLM で最もよく機能します。

Bard の大規模モデルのテキストバイソン バージョンでは、より詳細なプロンプト ワードを提供する傾向があります。

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

さらに、論文では次のことも示しています。大規模な数学的オプティマイザーとしてのモデルの可能性

線形回帰連続最適化問題の例。

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

#巡回セールスマン問題は、離散最適化問題の例として機能します。

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

#ヒントを与えるだけで、大規模なモデルは適切な解決策を見つけることができ、場合によっては手動で設計されたヒューリスティックと一致したり、それを超えたりすることもあります。

しかし、チームはまた、大規模なモデルはまだ従来の勾配ベースの最適化アルゴリズムを置き換えることはできないとも考えています。多数のノードを伴う巡回セールスマン問題など、問題の規模が大きい場合、OPRO 手法のパフォーマンスは理想的ではありません。

チームは、将来の改善に向けたアイデアを提案しました。彼らは、現在の大規模なモデルではエラー ケースを効果的に利用できず、単にエラー ケースを提供するだけでは大規模なモデルがエラーの原因を捉えることはできないと考えています。

有望な方向性は、エラー ケースに関するより豊富なフィードバックを組み込み、主要な特性の違いを要約することです。最適化軌道で生成された高品質キューと低品質キューの間。

この情報は、オプティマイザー モデルが過去に生成されたヒントをより効果的に改善するのに役立ち、ヒントの最適化に必要なサンプルの数をさらに削減できる可能性があります。

この論文では、多数の最適なヒント ワードが公開されています

この論文は Google と DeepMind の統合部門によるものですが、著者は主に元の Google Brain チームのメンバーであり、

Quoc Le が含まれます。周登永

同じ人はコーネル大学で博士号を取得した復丹の同窓生です。

チェンルン・ヤン、そして上海交通大学で博士号を取得して卒業した同窓生です。 .D. カリフォルニア大学バークレー校陈昕昀出身。

チームはまた、映画の推薦や映画の名前のパロディーなどの実用的なシナリオを含む、実験で得られた最良のプロンプトワードの多くを論文に提供しました。必要な場合は、

AIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!

論文アドレス: https://arxiv.org/abs/2309.03409 を参照してください。

以上がAIが独自にプロンプ​​トワードを設計、Google DeepMindは数学における「深呼吸」で大規模モデルを8ポイント向上できることが判明!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!