AI大型モデルテクノロジーは、高品質の生産性の開発を促進する重要な力となり、何千もの産業との統合において重要な役割を果たしています。 Tencent の Hunyuan 大型モデルは、ハイブリッド エキスパート モデル (MoE) 構造を採用することで、モデルを数兆パラメータ規模に拡張し、「脳」 の容量を増加させながら、予測パフォーマンスを向上させ、コストの向上を促進しました。推理力が減ります。一般的なモデルとして、Tencent Hunyuan は中国語のパフォーマンス、特にテキスト生成、数理論理学、マルチターン対話において業界をリードしています。
最近、Tencent Hunyuan Large Model は 256k長文モデルを正式にリリースし、Tencent Cloud を通じて大多数の企業と個人開発者に公開され、より広範囲のイノベーションとアプリケーションをサポートしています。 Tencent Hunyuan 256kモデルバージョンでは、380000文字を超える超長文を処理する能力があります。会話アプリケーションのシナリオでは、このモデルは、「覚えておいてください」より多くの会話コンテンツを作成し、「忘れてください」情報やその他の問題を効果的に回避できます。さらに、優れたコンテキスト分析機能を備えており、会話の参加者により正確で関連性の高いフィードバックを提供し、より多くの情報に基づいた意思決定を支援します。
また、このモデルバージョンは、長い文書の読解や大規模なデータ分析にも高いパフォーマンスを発揮します。金融、医療、教育、旅行などのプロフェッショナルの業務を強力にサポートし、業務効率を大幅に向上します。このモデルは推論パフォーマンスの面でも徹底的に最適化されており、ユーザーは Tencent Cloud などのプラットフォーム上の実際のアプリケーションでよりスムーズで効率的なエクスペリエンスを楽しむことができます。
「物忘れ」を軽減し、大型モデルをよりスマートにします
大型モデル製品では、会話要件の処理が中心的な機能です。ただし、長いテキスト処理機能の制限により、従来の大規模なモデルでは、会話中に「方向を失った」、または長さとして「記憶が欠けています」が表示される傾向があります。会話の量が増え、忘れる情報も増えます。
Tencent Hunyuan256kモデルは、この課題のために特別に最適化されています。高度な「Expert Hybrid」 (MoE) アーキテクチャを採用し、RoPE-NTKやFlash Attendant V2などの革新的なテクノロジーを組み込んでいます。それは持っています一般的な短いテキスト (4,000 文字未満) を効率的に処理すると同時に、長いテキスト処理の深さと幅においてブレークスルーを達成する機能。
現在、Tencent Hunyuan の大規模モデルはすでに 256k という超長時間のコンテキスト理解能力を備えており、厳密に処理した後、一度に処理される文字数は を超えています。」 干し草の山から針を見つける」このタスクでテストした結果、長いテキスト処理におけるモデルの精度は 99.99% に達し、これは国際的にも主導的な地位にあります。
継続的かつ安定した反復により、大規模モデル適用の効率が向上します
Tencent Hunyuan大型モデルは業界初のハイブリッドエキスパートモデル(MoE)を採用しています)の構造を持ち、その過程で数多くの自社開発技術が蓄積されてきました。前のバージョン 32K では、このモデルは市場の同様のオープンソース モデルを大幅に上回り、さまざまなアプリケーション シナリオで優れたパフォーマンスを実証しました。
新しい反復の後、Tencent Hunyuan256k一般分野のGSB評価では、以前のバージョンと比較して、勝率は50.72%です。同時に、Tencent Hunyuan 256kのトレーニングセットは、医療や金融分野などの複数の分野における長文データ、翻訳データ、マルチドキュメントQ&Aなどの高品質の注釈付きデータを統合し、モデルを作成します特に大量の長文データを頻繁に分析・処理する必要がある医療業界や金融業界などにおいて、より実践的で正確かつ効率的な業務支援を実現します。
たとえば、中央銀行が発行した財務レポートを Tencent Hunyuan256k モデルに入力すると、モデルはレポートの重要なポイントを迅速に洗練して要約することができ、驚くべき処理速度と精度を実現します。満足できるレベル。
推論パフォーマンスの最適化により、より強力な大規模モデル理解機能を実現 同時に、Tencent Hunyuan 256k は推論パフォーマンスが徹底的に最適化されています。 INT8精度モードでは、FP16精度と比較して、モデルのQPM(1秒あたりのクエリレート)は23.9%の大幅な向上を達成しましたが、最初のワード消費量はわずかでした5.7%増加しました。これらの改善により、実際のアプリケーションにおけるモデルの応答性と全体的な効率が大幅に向上しました。 「三国志」の分析を例に挙げると、Tencent Hunyuan 256k は、数十万語からなるこの古典的な小説を素早く読んで検索することができ、キーを正確に特定できるだけではありません。小説の登場人物や出来事、天気や登場人物の服装などの詳細な説明でも、正確な情報が得られます。 AI新しい生産性の重要なコンポーネントとして、大型モデルは産業のアップグレードを促進し、高品質の開発を達成する上で重要な役割を果たします。 Tencent Hunyuan 256k モデルの発売により、業界全体に新たな活力が注入され、より幅広いアプリケーションの可能性が開かれました。 現在、Tencent Hunyuan 256k長い記事モデルは、Tencent Cloud を通じて大部分の企業と個人開発者に公開されており、ユーザーは 標準バージョン256kの長い記事にアクセスできます。モデルが入ります。これにより、より多くの開発者とユーザーが Tencent の Hunyuan モデルの強力な機能に簡単にアクセスして使用できるようになり、あらゆる階層にインテリジェントなソリューションを提供し、より革新的なアプリケーション シナリオの実現を促進します。
以上が一度に38万語の入力に対応! Tencent Hunyuan が、Tencent Cloud を通じて企業および個人開発者に公開される 256,000 の長い記事モデルを開始の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。