


数千億のパラメータを備えた Meta の大規模モデルである OPT-IML の「アップグレード バージョン」が登場し、完全なモデルとコードがリリースされました。
今年の 5 月、MetaAI は 1,750 億のパラメータに基づく超大型モデル OPT-175B のリリースを正式に発表しました。これもすべてのコミュニティに無料で公開されています。
12 月 22 日、このモデルの更新バージョンである OPT-IML (Open Pre-trained Transformer) が正式にリリースされました。Meta 氏によると、それは「2,000 の言語タスクを微調整しました。 1,7500 億のパラメータ」は、非営利の研究目的でも自由に利用できます。
この更新された OPT-IML のパフォーマンスはどうですか? 2 つの写真を見てみましょう。
#今回 OPT-IML では 30B と 175B の 2 つのモデル サイズを作成しました。
古い OPT モデルと比較すると、OPT-IML は 14 の標準 NLP 評価タスクにおいて平均して OPT を上回ります。
2 つのモデル サイズは、ゼロショット学習タスクでは 7%~ 優れており、32 ショット学習タスクでは 4%~ および 0.4%~ 優れています。
この研究では、モデルとベンチマークのサイズの増加が、下流のタスクのパフォーマンスに対する命令チューニングの決定の影響にどのような影響を与えるかを研究者が説明しています。
この目的のために、彼らは OPT-IML Bench を開発しました。これは、8 つの既存のベンチマークに基づく 2000 の NLP タスクを含む大規模な指導メタ学習 (IML) ベンチマークであり、タスク カテゴリに分割されています。
OPT-IML 30B および 175B をトレーニングするために、研究者らはまず、次の観点から OPT-30B に適用される命令調整の決定を提案しました。フレームワークによって洞察が得られました。
OPT-IML は、異なるターゲットと入力形式を使用した 4 つの評価ベンチマーク (PromptSource、FLAN、Super-Natural命令、UnifiedSKG) で、3 つの一般化スキルすべてを実証します。
すべてのベンチマークにわたって OPT よりも大幅に優れているだけでなく、この特定のベンチマークに最適化された既存のモデルよりも非常に競争力の高い方法で優れています。
# さらに、OPT-IML はオープンソース化されており、編集者は以下に Github リンクも掲載しています~
##Github リンク: https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML
について学びましょうOPT-IML という紙を通してそれを行います。
ペーパーリンク: https://github.com/facebookresearch/metaseq/blob/main/projects/OPT-IML/optimal_paper_v1 .pdf
研究方法大規模な言語モデルの命令による微調整は、ゼロショットおよび少数ショットの一般化機能を強化する効果的な方法となっています。 。この研究では、メタ研究者は命令の微調整に 3 つの重要な追加を加えました。
まず、8 つのデータセット コレクションからタスク タイプごとに分類された 2,000 個の NLP タスクを含む大規模な命令微調整ベンチマークをコンパイルしました。
研究者は、このベンチマークで評価分割を選択的に構築し、3 つの異なるタイプのモデル一般化機能をテストしました。
完全にホールドアウトされたカテゴリからのタスク、認識されたタイプからのホールドアウト タスク、認識されたタスクからのホールドアウト インスタンス (認識されたタスクからのホールドアウト インスタンス) が含まれます。
#コマンドの微調整
コマンドの微調整モデルを次の指示と一致させることは、機械学習における現在の研究の方向性の 1 つです。
#命令の微調整には 2 つの方法があります。 1 つは人間による注釈付きの指示とフィードバックを使用してさまざまなタスクのモデルを微調整することに重点を置き、もう 1 つは注釈を介して、または公的にアクセス可能なベンチマークやデータセットに自動的に指示を追加することに重点を置いています。この研究では、Meta AI メンバーは 2 番目の手法に焦点を当て、OPT を改善する方法を含む、公的にアクセス可能な多数のデータセットを編集しました。
研究中に、Meta メンバーは 4 つのベンチマークの 1836 個のタスクを使用した同様のスケーリング方法を提案しました。最後に、研究者らは、MMLU やビッグベンチ ハード (BBH) などの困難な外部ベンチマークのパフォーマンス限界を押し上げるためにテスト全体を調整しながら、ダウンストリームのパフォーマンスに影響を与える可能性のあるさまざまな命令チューニング戦略の重みについて説明します。
マルチタスク学習
マルチタスク学習は、命令ベースの微調整 (MTL) を表します。
MTL は、同等のパラメーターまたは表現を共有する同様の関数と組み合わせると、タスクの汎化パフォーマンスを向上させることができる一般的なパラダイムです。
近年、MTL は多数の NLP シナリオに適用されており、主に関連アクティビティからのシグナルを活用してトレーニング タスクや新しいドメインのパフォーマンスを向上させることに重点が置かれています。
対照的に、命令ベースの微調整は、これまでに見たことのない問題に対する汎化パフォーマンスを向上させるのに役立ちます。これは、すべてのタスクを 1 つの概念に結合し、すべてのタスクにモデルの重みを割り当てることでそれらを一緒にトレーニングするよう指示することで実現されます。
OPTとは何ですか?
大規模な言語モデル、1,000 億を超えるパラメーターを備えた自然言語処理システムは、過去数年にわたって NLP と AI 研究を変革してきました。これらのモデルは、膨大な数の多様なテキストでトレーニングされ、創造的なテキストを生成し、基本的な数学の問題を解決し、読解の問題に答えるなどの驚くべき新しい能力を実証します。
一般の人々が有料 API を介してこれらのモデルを操作できる場合もありますが、研究への完全なアクセスは依然としてリソースの豊富な少数の研究室に限定されています。
この制限されたアクセスにより、これらの大規模な言語モデルがどのように、そしてなぜ機能するのかを理解する研究者の能力が制限され、堅牢性の向上やバイアスなどの既知の問題の軽減における進歩が妨げられます。
Meta AI は、オープン サイエンスへの取り組みから、今年 5 月に Open Pretrained Transformer (OPT-175B) をリリースしました。これは、公開データで使用できる 1,750 億個のパラメーターを備えたモデルです。このモデルを共有する理由は、Meta AI が大規模モデルに関する基本技術を理解するために、より多くのコミュニティに参加してもらいたいと考えているためです。
簡単に言えば、Meta は人工知能研究で使用される大規模言語モデルへのアクセスを一般に公開し、それによって大規模モデル研究における人工知能の民主化を実現します。
古いバージョンとの比較
Meta によって現在リリースされている IML バージョンは微調整されており、古いバージョンの OPT よりも自然言語タスクのパフォーマンスが向上しています。一般的な言語タスクには、質問への回答、テキストの要約、翻訳などがあります。
微調整するために、研究者たちは約 2,000 の自然言語タスクを使用しました。タスクは 8 つの NLP ベンチマーク (OPT-IML ベンチ) に分割されており、これらも研究者によって提供されています。
30B モデルと 175B モデルを例に挙げると、平均して、OPT-IML は OPT と比較してゼロショット学習精度を約 6 ~ 7% 向上させます。 32 回の学習エポックで、300 億個のパラメーターを含むモデルでは精度が大幅に向上し、1,750 億個のパラメーターを含むモデルではわずかな精度の向上が見られました。
比較後、メタ チームは、すべてのベンチマーク テスト、およびゼロショット学習と少数ショット学習の点で、OPT-IML のパフォーマンスが OPT よりも優れていることを発見しました。精度は、命令に基づいて微調整された他のモデルよりも優れており、より競争力がありました。
以上が数千億のパラメータを備えた Meta の大規模モデルである OPT-IML の「アップグレード バージョン」が登場し、完全なモデルとコードがリリースされました。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

1. 以下に示すように、win+x ショートカット キーを使用してメニューを開き、[コマンド プロンプト (管理者) (A)] を選択します。 2. コマンド プロンプト インターフェイスに入ったら、[ipconfig/flushdns] コマンドを入力して Enter キーを押します。 3. 次に、次の図に示すように、[netshwinsockresetcatalog] コマンドを入力して Enter キーを押します。 4. 最後に [netshintipreset] コマンドを入力して Enter キーを押し、コンピューターを再起動すると、インターネットにアクセスできるようになります。 、以下の図に示すように:

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。
