Jamba 1.5:ハイブリッドマンバトランスフォーマーアーキテクチャをフィーチャー
Jamba 1.5:長いコンテキスト処理のための強力なハイブリッド言語モデル
AI21 Labsの最先端の大規模な言語モデルであるJamba 1.5は、広範なテキストコンテキストを処理するための印象的な機能を誇っています。 Jamba 1.5の大規模なパラメーター(940億パラメーター)とJamba 1.5 Mini(120億パラメーター)の2つのバージョンがあります。これは、Mamba構造化状態空間モデル(SSM)と従来の変圧器アーキテクチャを組み合わせたユニークなハイブリッドアーキテクチャを活用しています。この革新的なアプローチにより、前例のない256K有効コンテキストウィンドウを処理することができます。これは、オープンソースモデルの大幅な飛躍です。
主な機能と機能:
- 大規模なコンテキストウィンドウ:最大256kのトークンを処理し、長いドキュメントや複雑なタスクに最適です。
- ハイブリッドアーキテクチャ:トランスモデルとMAMBAモデルの強度を組み合わせて、最適な効率とパフォーマンスを実現します。
- 効率的な量子化:メモリフットプリントを削減し、処理を速くするために、ExpertSINT8量子化を採用します。
- 多言語サポート: 9つの言語で効果的に機能します:英語、スペイン語、フランス語、ポルトガル語、イタリア語、オランダ語、ドイツ語、アラビア語、ヘブライ語。
- 汎用性の高いアプリケーション:質問の回答、要約、テキスト生成、分類など、幅広いNLPタスクに適しています。
- アクセス可能な展開: AI21のStudio API、Hugging Face、Cloud Partnersを介して利用できます。
アーキテクチャの詳細:
側面 | 詳細 |
---|---|
ベースアーキテクチャ | 混合物(MOE)モジュールを備えたハイブリッドトランスマンバアーキテクチャ |
モデルバリアント | Jamba-1.5-large(94bアクティブパラメーター、合計398b)およびJamba-1.5-mini(12bアクティブパラメーター、52b合計) |
層構成 | 9ブロック、それぞれ8層があります。 1:7トランスとマンバ層の比率 |
専門家の混合(MOE) | 16人の専門家、トークンあたり上位2を選択します |
隠された寸法 | 8192 |
注意ヘッド | 64クエリヘッド、8キー価値ヘッド |
コンテキストの長さ | 最大256Kトークン |
量子化技術 | MOEおよびMLPレイヤー用のExpertSINT8 |
アクティベーション機能 | 統合変圧器とMAMBAの活性化 |
効率 | 8x80GB GPUで高スループットと低レイテンシ向けに最適化されています |
Jamba 1.5へのアクセスと利用:
Jamba 1.5は、AI21のStudio APIと抱き合った顔を介してすぐにアクセスできます。このモデルは、特定のドメインがパフォーマンスをさらに向上させるために微調整できます。 AI21 APIを使用したPythonの例を以下に示します。
Pythonの例:
AI21からAI21Clientをインポートします ai21.models.chatからchatmessageをインポートします メッセージ= [chatmessage(content = "2〜3行のトークンザーとは?"、role = "user")]] client = ai21client(api_key = '')#apiキーに置き換えます Response = client.chat.completions.create( メッセージ=メッセージ、 Model = "Jamba-1.5-mini"、 ストリーム= true )) それに応じてチャンクの場合: print(chunk.choices [0] .delta.content、end = "")
結論:
Jamba 1.5は、大規模な言語モデルの大幅な進歩を表しており、力と効率の魅力的な融合を提供します。汎用性の高いアプリケーションとアクセス可能な展開オプションと相まって、非常に長いコンテキストを処理する能力は、幅広いNLPタスクにとって貴重なツールになります。
よくある質問(FAQ):(オリジナルに似ていますが、簡潔さのために言い換えられます)
- Q1:Jamba 1.5とは何ですか? A:94B(大)または12B(ミニ)パラメーターを備えたハイブリッドトランスマンバの大型言語モデル、指示のフォローおよび長いコンテキスト処理のために最適化されています。
- Q2:Jamba 1.5は長いコンテキストを効率的にどのように処理しますか? A:ハイブリッドアーキテクチャとExpertSINT8の量子化を通じて、メモリ使用量が減少した256Kトークンコンテキストウィンドウを可能にします。
- Q3:ExpertSINT8量子化とは何ですか? A:MOEでINT8精度を使用した圧縮技術とMLP層を使用して、効率を改善します。
- Q4:Jamba 1.5は公開されていますか? A:はい、Jamba Open Modelライセンスの下で、顔を抱きしめてアクセスできます。
以上がJamba 1.5:ハイブリッドマンバトランスフォーマーアーキテクチャをフィーチャーの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

ねえ、忍者をコーディング!その日はどのようなコーディング関連のタスクを計画していますか?このブログにさらに飛び込む前に、コーディング関連のすべての問題について考えてほしいです。 終わり? - &#8217を見てみましょう

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

Shopify CEOのTobiLütkeの最近のメモは、AIの能力がすべての従業員にとって基本的な期待であると大胆に宣言し、会社内の重大な文化的変化を示しています。 これはつかの間の傾向ではありません。これは、pに統合された新しい運用パラダイムです

導入 鮮やかな絵画や彫刻に囲まれたアートギャラリーを歩くことを想像してください。さて、各ピースに質問をして意味のある答えを得ることができたらどうでしょうか?あなたは尋ねるかもしれません、「あなたはどんな話を言っていますか?

導入 Openaiは、待望の「Strawberry」アーキテクチャに基づいて新しいモデルをリリースしました。 O1として知られるこの革新的なモデルは、推論能力を強化し、問題を通じて考えられるようになりました

スタンフォード大学ヒト指向の人工知能研究所によってリリースされた2025年の人工知能インデックスレポートは、進行中の人工知能革命の良い概要を提供します。 4つの単純な概念で解釈しましょう:認知(何が起こっているのかを理解する)、感謝(利益を見る)、受け入れ(顔の課題)、責任(責任を見つける)。 認知:人工知能はどこにでもあり、急速に発展しています 私たちは、人工知能がどれほど速く発展し、広がっているかを強く認識する必要があります。人工知能システムは絶えず改善されており、数学と複雑な思考テストで優れた結果を達成しており、わずか1年前にこれらのテストで惨めに失敗しました。 2023年以来、複雑なコーディングの問題や大学院レベルの科学的問題を解決することを想像してみてください

メタのラマ3.2:マルチモーダルAIパワーハウス Metaの最新のマルチモーダルモデルであるLlama 3.2は、AIの大幅な進歩を表しており、言語理解の向上、精度の向上、および優れたテキスト生成機能を誇っています。 その能力t
