複雑な数的推論は、大規模な言語モデルの推論能力を評価するための重要な指標です。現在、一般的に使用されている数的推論データセットはサンプルサイズが限られており、問題の多様性が不十分であるため、「逆転の呪い」現象が発生しています。大規模な言語モデルでは、つまり、「A は B である」に基づいてトレーニングされた A 言語モデルを「B は A である」に一般化することはできません [1]。数学的推論タスクにおけるこの現象の具体的な形式は次のとおりです。数学的問題が与えられた場合、言語モデルは順推論を使用して問題を解決するのは得意ですが、逆推論で問題を解決する能力に欠けています。次の 2 つの例に示すように、数学の問題では逆推論が非常に一般的です。
フォワードサムを改善するには逆推論機能を実現するために、ケンブリッジ、香港科技大学、およびファーウェイの研究者は、一般的に使用される 2 つの数学的データ セット (GSM8K および MATH) に基づいた MetaMathQA データ セットを提案しました。高品質。 MetaMathQA は、大規模な言語モデルによって生成された 395K の順方向および逆方向の数学的な質問と回答のペアで構成されています。彼らは、MetaMathQA データ セットで LLaMA-2 を微調整して、数学的推論 (順方向および逆数) に焦点を当てた大規模な言語モデルである MetaMath を取得しました。これは、数学的推論データ セットで SOTA に到達しました。さまざまなスケールの MetaMathQA データセットと MetaMath モデルは、研究者による使用のためにオープンソース化されています。
#MetaMathQA には 4 つのデータ拡張メソッドが含まれています:
問題が与えられた場合、正しい結果を得ることができる思考の連鎖が、データ拡張として大規模な言語モデルを通じて生成されます。
質問: ジェームズは、それぞれ 4 ポンドの牛肉を 5 パック購入します。牛肉の価格は 1 ポンドあたり 5.50 ドルです。彼はいくら支払いましたか?
答え: ジェームズは、それぞれ 4 ポンドの牛肉を 5 パック購入するので、合計 5 * 4 = 20 ポンドの牛肉を購入します。牛肉の価格は 1 ポンドあたり 5.50 ドルなので、彼は 20 * 5.50 ドルを支払います= $110。答えは: 110.2. 質問の言い換え (質問書き換えの強化):
##3. FOBAR 質問 (FOBAR 逆質問拡張): #メタ質問が与えられた場合、マスク条件の数値は次のようになります。例:「上の質問に対する答えが 110 であることがわかっている場合、未知の変数 x の値は何ですか?」)。
4. 自己確認の質問 (自己確認の逆質問の拡張): FOBAR に基づいて、逆問題部分を大規模な言語モデルを使用したステートメントに書き換えることによってデータ拡張が実行されます (書き換え例:「彼はいくら払いましたか?」(答えは 110) は「彼はいくら払いましたか?」に書き換えられました) 110インチを支払いました)。
##2 つの一般的な数学における実験結果推論データ セット (GSM8K および MATH) は、MetaMath が既存のオープンソース LLM モデルよりもパフォーマンスが大幅に優れており、外部ツール (コード インタプリタなど) の使用を必要としないことを示しています。その中で、当社の MetaMath-7B モデルは、GSM8K で 66.5%、MATH で 19.8% の精度に達しており、同じスケールの最先端のモデルよりもそれぞれ 11.6% と 9.1% 高い精度を示しています。特に言及する価値があるのは、MetaMath-70B が GSM8K 上で GPT-3.5-Turbo を上回る 82.3% の精度を達成したことです。
「表面配置の仮定」[2] によると、大規模な言語モデルの多くは事前トレーニングから得られ、下流のタスクからのデータは事前トレーニング中に学習された言語モデルの固有の機能を活性化します。したがって、これは 2 つの重要な疑問を引き起こします: (i) どのタイプのデータが潜在知識を最も効果的に活性化するのか、(ii) なぜあるデータセットが他のデータセットよりもそのような活性化に優れているのか?
MetaMathQA が役立つのはなぜですか?思考連鎖データ (Perplexity) の品質の向上
#上図に示すように、研究者は Perplexity を計算しました。回答のみのデータ、GSM8K CoT、および MetaMathQA データセットのさまざまな部分に関する LLaMA-2-7B モデルの分析。 MetaMathQA データセットの混乱度は他の 2 つのデータセットよりも大幅に低く、これは学習可能性が高く、モデルの潜在的な知識を明らかにするのにより役立つ可能性があることを示しています
MetaMathQA が役立つのはなぜですか?思考連鎖データの多様性を高める (Diversity)
研究者らは、データの多様性の向上とモデルの精度の向上を比較することで、再定式化、FOBAR、SV による同量の拡張データの導入が有効であることを発見しました。大幅な多様性の向上が達成され、モデルの精度が大幅に向上しました。対照的に、回答拡張のみを使用すると、精度が大幅に飽和してしまいました。精度が飽和に達すると、AnsAug データを追加しても限られたパフォーマンスの向上しか得られません
以上が逆の考え方: MetaMath の新しい数学的推論言語モデルが大規模モデルをトレーニングするの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。