ホームページ テクノロジー周辺機器 AI 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

Jun 12, 2024 am 11:55 AM
業界 一貫した大規模言語モデル

n トークン シーケンス、CLLMs+Jacobi デコード フレームワークを効率的にデコードします。

伝統的に、大規模言語モデル (LLM) は、各トークンを 1 つずつデコードする逐次デコーダーとして考えられています。

上海交通大学とカリフォルニア大学の研究チームは、事前トレーニングされた LLM が効率的な並列デコーダになるように簡単に教育できることを示し、Consistent Large Language Model (CLLM) と呼ばれる新しい並列デコーダ ファミリを導入し、各推論ステップで n トークン シーケンスを効率的にデコードすることで推論レイテンシーを軽減します。

この論文では、「人間が頭の中で完全な文章を形成した後、一語一語の表現を表現するために使用する認知プロセスを模倣することは、事前トレーニングされた LLM を微調整するだけで効果的に学習できる」ことを研究が示しています。具体的には、CLLM は、ランダムに初期化された n トークンのシーケンスをできるだけ少ないステップにマッピングすることにより、自己回帰 (AR) デコードと同じ結果のデコードされたシーケンスを生成します。このようにして、並列復号トレーニングを実行できます。

実験結果は、研究チームが提案した方法を使用して得られた CLLM が非常に効果的であることを示し、この方法が生成速度で 2.4 倍から 3.4 倍の向上を達成し、Medusa2 や Eagle などの他の高速推論技術に匹敵することを示しています。また、推論中に補助モデル コンポーネントに対応するための追加のメモリ コストは必要ありません。

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

    論文名:「CLLMs: Consistency Large Language Models」
  • 論文リンク: https://arxiv.org/pdf/2403.00835

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

図 1: GSM8K の場合上は、Jacobi デコードを使用した場合、CLLM-ABEL-7B-001 がベースライン ABEL-7B-001 よりも約 3 倍高速であることを示しています。

ヤコビ復号

大規模言語モデル (LLM) は、プログラミングから法律や健康に関するアドバイスの提供まで、人間の生活の様相を変えています。

ただし、図 1 に示すように、LLM は推論中に自己回帰デコードを使用してトークンごとに応答を生成するため、応答が長くなると遅延が長くなります。自己回帰デコードを使用すると、多くの場合、一度に複数のトークンを生成して推論を高速化するために、アーキテクチャの変更、補助コンポーネント、または最初のドラフト モデルが必要になります。図 2: 従来の自己回帰 (AR) デコードの概略図: 一度にトークンを生成します。

ヤコビ復号は、非線形方程式を解くためのヤコビおよびガウス・ザイデル固定小数点反復法から派生し、貪欲復号を使用した自己回帰生成とまったく同じであることが証明されています。 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

ヤコビ復号化は、逐次生成プロセスを n 個の変数を含む n 個の非線形方程式系に再構築し、ヤコビ反復に基づいて並列的に解くことができます。

各反復ステップでは、複数の正しいトークン (いわゆる「正しい」とは、貪欲なサンプリング戦略に基づく自己回帰復号結果と一致することを意味します) を予測する可能性があり、それによって自己回帰復号が高速化される可能性があります。

具体的には、ヤコビ復号法はまず入力プロンプトからシーケンスの次のトークンをランダムに推測します (以下、特に明記しない限り 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場n

トークン シーケンスと呼びます)。

次に、n トークン シーケンスが、反復更新のヒントとともに LLM に供給されます。このプロセスは、n

-token のシーケンスが安定し、変更されなくなり、固定点に達するまで継続されます。

Jacobi デコードでは、自己回帰 (AR) デコードよりも LLM へのクエリが必要ないことに注目してください。最終的に、 n

トークンのシーケンスは、貪欲戦略に基づいた AR デコードによって生成された出力に収束します。最初のランダムな推測から最終的な AR 生成結果までのプロセスは、「ヤコビ軌道」と呼ばれます。

ヤコビ復号反復プロセスとヤコビの軌跡の例を図 2 に示します。 ヤコビ復号の制限:

しかし、実際には、通常のヤコビ復号では、LLM の加速効果がわずかに改善されるだけであり、たとえば、平均加速率は 1.05 倍にすぎません。これは、以前のトークンにエラーがある場合、LLM が正しいトークンを生成することが困難であるためです。

したがって、ほとんどのヤコビ反復では n トークンのシーケンスに対して 1 つの修正しか取得できず、その結果、図 3 の左側に示されているより長い軌道が得られます。

先読みデコードと投機的デコード手法は、ヤコビ デコードと従来の自己回帰デコードの非効率性を軽減しようとしますが、推論中に追加のメモリ コストが発生します。

CLLM では、これらの追加のメモリコストは必要ありません。

一貫した大規模言語モデル (CLLM)

予備的なヤコビ復号:

プロンプト x と事前トレーニングされた LLM p(·​​|x) が与えられた場合、通常、研究者は標準的な自己回帰を使用します。 (AR) デコード方法は、貪欲戦略の下でモデルの応答を取得します。つまり、3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

ヤコビデコードは、LLM 推論プロセスを非線形方程式系を解くプロセスとして再構築し、デコード プロセスを実行可能な形式の並列コンピューティングに変換します。 。以下を考慮してください:

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

研究者は、上記の方程式を非線形方程式系として書き直すことができます:

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

注意すべき点:

プロセスは次のような特定の k 値で終了します: 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

次に、 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場を不動点として定義し、3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場をヤコビ軌跡として定義します。この問題を解決するために、研究チームは、ヤコビ軌道

J 上の任意の点 y を固定点 y* に一貫してマッピングできるように、事前トレーニングされた LLM を調整することを提案しています。 驚くべきことに、彼らはそのような目標が、拡散モデルの主要な加速方法である一貫性モデルの目標と似ていることを発見しました。

チームが提案した方法では、ターゲットモデルから収集されたヤコビ軌道を使用してモデルがトレーニングされ、ヤコビ反復中にシングルステップ収束を促進する損失関数が使用されます。

CLLM に調整されるターゲット モデル

p ごとに、トレーニングは 2 つの部分で構成されます: (1) ヤコビ軌道の準備:

各プロンプトに対して、作成者は各トークンの切り捨てに対してヤコビを順番に実行します。応答シーケンス全体

l が生成されます。これは、すべての連続する固定点の連結に相当します。 軌跡に沿って生成された各シーケンスは、データ エントリとしてカウントされます。

ここで、

N

(N ≫ n) トークンを含む長い応答の場合、この切り捨てにより、長い入力でのモデル評価の遅延が回避されることに注意することが重要です。 (2) 一貫性と AR 損失を使用したトレーニング: 著者は、CLLM を調整するために 2 つの損失を共同最適化します。一方、AR 損失は、CLLM がターゲット LLM から逸脱することを防ぎます。生成品質を維持します。 ️図 4: ワンステップの収束一貫性トレーニングの概略図: ターゲットの調整LLM は、ヤコビ軌道上の任意の状態が入力として受け取られたときに常に固定点を予測します。

整合性と AR 損失:

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

(1) 整合性損失

p

をターゲット LLM として表します。

を、パラメータ

θ

pに初期化したCLLMとして表すものとします。

プロンプト3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場 x と対応するヤコビ軌道 J について、 yy*

がそれぞれ軌道上のランダムな状態と固定点を表すものとします。

は、グローバル整合性 (GC) 損失 と呼ばれる次の損失を最小限に抑えることで、入力が y* の場合に y を出力するように促すことができます。

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場この式では、3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

著者は、データセットからの一様なサンプリングを表すためにシンボルを広範囲に使用しています。

D(・||・) は 2 つの分布間の距離を表し、その選択については GKD 法で説明します。この記事では主にフォワード KL が使用されます。

あるいは、整合性モデルの式に従ってローカル整合性 (LC) 損失を使用します。

ここで、隣接する状態: 3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場ヤコビ軌道 J では、同じ出力を生成するように駆動されます:

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

(2) AR 損失:

ターゲット LLM の分布からの逸脱を避けるために、著者は、ターゲット LLM p の生成 l に基づいて分布を結合します。

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

いくつかの重み ω を使用して両方の損失を結合することにより、トレーニング CLLM の総損失は次のようになります。 :

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

実験

結果:

全体として、この実験は 3 つのドメイン固有のタスクをカバーします:

(1) Spider (テキストから SQL)

(2) Human-Eval (Python コード)完了) と GSM8k (数学)

(3) より広いオープン ドメイン セッション チャレンジ MT ベンチ。

報告された実験では、タスクに応じて、微調整されたエンコーダー LLM、Deepseek-coder-7B-instruct、LLaMA-2-7B または ABEL-7B-001 をターゲット モデルとして使用します。

トレーニングと評価は、NVIDIA A100 40GB サーバーで実行されます。

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

図 5: さまざまなダウンストリーム タスクに対する CLLM の高速化効果。結果は、「CLLM は事前トレーニングされたモデルよりもはるかに高速で、Medusa と比較して同等の高速化を実現しますが、推論中に追加コストは発生しません。」

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

図 6: CLLM と他のモデルの比較図特定のドメイン タスク (Spider、CSN-Python、GSM8k) および MT ベンチのベンチマーク。 CLLM は、追加の推論コスト (FLOPS とメモリ消費量から判断) を導入せずに、Medusa2 と比較して同様またはそれ以上の高速化を実現します。

専門分野:

図 5 から、元のターゲット モデル、Medusa2、推測デコードなどの他のベースラインと比較して、CLLM が最も大幅な高速化を達成していることがわかります。

オープン ドメイン セッション チャレンジ (MT ベンチ): ShareGPT データセットを使用して LLaMA2-7B からトレーニングされた

CLLM は、先読みデコードと組み合わせると、Medusa2 とほぼ同じ高速化を達成し、MT で同等のスコアを取得します。 -ベンチ。

ただし、CLLM は、ターゲット モデルの元のアーキテクチャや補助コンポーネントを変更する必要がないため、より適応性があり、メモリ効率が高くなります。

トレーニングコスト:

CLLM の微調整にかかるコストはそれほど高くありません。

たとえば、LLaMA-7B の場合、Spider データセットでは、約 100 万個のトークンを渡すだけで 3.4 倍の高速化を達成できます。データセットのサイズが大きい場合 (CodeSearchNet-Python など)、CLLM をトレーニングするためのヤコビ軌道の生成に使用する必要があるのはデータセットの 10% だけであり、結果的に約 2.5 倍の速度向上が得られます。

トークンの総数は、次の方法で推定できます:

N = 各プロンプトの平均軌跡量 × 平均軌跡長さ × プロンプトの数。

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場

図 7: Spider 上のターゲット LLM と CLLM 間のヤコビ軌道の比較。ヤコビ軌道上の各点は色分けされたシーケンスです。AR 結果との正しい一致は青でマークされ、不正確なものは赤でマークされます。 CLLM は効率が向上し、ターゲット LLM よりも 2 倍速く固定点に収束します。このように CLLM の効率が向上したのは、一貫性の損失によるものと考えられます。これにより、指定された各プレフィックスの n トークン シーケンスの構造の学習が容易になります。

図 6 の左側は、ターゲット LLM が通常 1 回の反復で正しいトークンを 1 つだけ生成することを示しています。対照的に、CLLM では、著者らは、複数の連続するトークンが 1 回のヤコビ反復で正しく予測される、急速な進歩の現象を発見しました。

さらに、ターゲット LLM では、事前に正しく生成されたトークン (図 7 の左側のインデックス 6 と 7 の「country」や「H」など) が、後続の反復で不正確に置き換えられることがよくあります。

一方、CLLM は正しいトークンを予測する能力を示しており、以前に間違ったトークンが存在した場合でもトークンが変更されないことを保証します。

著者はこのようなトークンを「固定トークン」と呼びます。これら 2 つの現象は共に、ヤコビ復号における CLLM の迅速な収束に寄与し、その結果、生成速度が大幅に向上します。

研究チームはまた、CLLMがトレーニングを通じて重要な言語概念であるコロケーションを獲得したことも観察しました。つまり、「ランダムな偶然によって予想よりも頻繁に一緒に出現する一連の単語または用語」

言語は単語の分離だけで構成されているわけではありません。ですが、特定の単語のペアにも大きく依存します。コロケーションの例は、自然言語とプログラミング言語の両方に豊富にあります。

それらには以下が含まれます:

  • 動詞 + 前置詞の組み合わせ (例: 「話す」、「... を思い出させる」)

  • 動詞 + 名詞構造 (例: 「決断する」、「捕まえる」) cold")

  • 多くのドメイン固有の構文構造 (プログラミングの「SELECT ... FROM ...」、「if ... else」など)。

一貫性生成目標により、CLLM はヤコビ軌道の任意の点からそのような構造を推論できるようになり、CLLM が多数の連語を習得し、複数の単語を同時に予測して反復ステップを最小限に抑えることが容易になります。

参考リンク:

https://hao-ai-lab.github.io/blogs/cllm/

以上が3倍の生成速度とメモリコストの削減、Medusa2を超える効率的なデコードフレームワークがついに登場の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました Aug 09, 2024 pm 04:01 PM

でももしかしたら公園の老人には勝てないかもしれない?パリオリンピックの真っ最中で、卓球が注目を集めています。同時に、ロボットは卓球のプレーにも新たな進歩をもたらしました。先ほど、DeepMind は、卓球競技において人間のアマチュア選手のレベルに到達できる初の学習ロボット エージェントを提案しました。論文のアドレス: https://arxiv.org/pdf/2408.03906 DeepMind ロボットは卓球でどれくらい優れていますか?おそらく人間のアマチュアプレーヤーと同等です: フォアハンドとバックハンドの両方: 相手はさまざまなプレースタイルを使用しますが、ロボットもそれに耐えることができます: さまざまなスピンでサーブを受ける: ただし、ゲームの激しさはそれほど激しくないようです公園の老人。ロボット、卓球用

初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した 初のメカニカルクロー!元羅宝は2024年の世界ロボット会議に登場し、家庭に入ることができる初のチェスロボットを発表した Aug 21, 2024 pm 07:33 PM

8月21日、2024年世界ロボット会議が北京で盛大に開催された。 SenseTimeのホームロボットブランド「Yuanluobot SenseRobot」は、全製品ファミリーを発表し、最近、世界初の家庭用チェスロボットとなるYuanluobot AIチェスプレイロボット - Chess Professional Edition(以下、「Yuanluobot SenseRobot」という)をリリースした。家。 Yuanluobo の 3 番目のチェス対局ロボット製品である新しい Guxiang ロボットは、AI およびエンジニアリング機械において多くの特別な技術アップグレードと革新を経て、初めて 3 次元のチェスの駒を拾う機能を実現しました。家庭用ロボットの機械的な爪を通して、チェスの対局、全員でのチェスの対局、記譜のレビューなどの人間と機械の機能を実行します。

クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう クロードも怠け者になってしまった!ネチズン: 自分に休日を与える方法を学びましょう Sep 02, 2024 pm 01:56 PM

もうすぐ学校が始まり、新学期を迎える生徒だけでなく、大型AIモデルも気を付けなければなりません。少し前、レディットはクロードが怠け者になったと不満を漏らすネチズンでいっぱいだった。 「レベルが大幅に低下し、頻繁に停止し、出力も非常に短くなりました。リリースの最初の週は、4 ページの文書全体を一度に翻訳できましたが、今では 0.5 ページの出力さえできません」 !」 https://www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/ というタイトルの投稿で、「クロードには完全に失望しました」という内容でいっぱいだった。

世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました 世界ロボット会議で「未来の高齢者介護の希望」を担う家庭用ロボットを囲みました Aug 22, 2024 pm 10:35 PM

北京で開催中の世界ロボット会議では、人型ロボットの展示が絶対的な注目となっているスターダストインテリジェントのブースでは、AIロボットアシスタントS1がダルシマー、武道、書道の3大パフォーマンスを披露した。文武両道を備えた 1 つの展示エリアには、多くの専門的な聴衆とメディアが集まりました。弾性ストリングのエレガントな演奏により、S1 は、スピード、強さ、正確さを備えた繊細な操作と絶対的なコントロールを発揮します。 CCTVニュースは、「書道」の背後にある模倣学習とインテリジェント制御に関する特別レポートを実施し、同社の創設者ライ・ジエ氏は、滑らかな動きの背後にあるハードウェア側が最高の力制御と最も人間らしい身体指標(速度、負荷)を追求していると説明した。など)、AI側では人の実際の動きのデータが収集され、強い状況に遭遇したときにロボットがより強くなり、急速に進化することを学習することができます。そしてアジャイル

ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award ACL 2024 賞の発表: HuaTech による Oracle 解読に関する最優秀論文の 1 つ、GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

貢献者はこの ACL カンファレンスから多くのことを学びました。 6日間のACL2024がタイのバンコクで開催されています。 ACL は、計算言語学と自然言語処理の分野におけるトップの国際会議で、国際計算言語学協会が主催し、毎年開催されます。 ACL は NLP 分野における学術的影響力において常に第一位にランクされており、CCF-A 推奨会議でもあります。今年の ACL カンファレンスは 62 回目であり、NLP 分野における 400 以上の最先端の作品が寄せられました。昨日の午後、カンファレンスは最優秀論文およびその他の賞を発表しました。今回の優秀論文賞は7件(未発表2件)、最優秀テーマ論文賞1件、優秀論文賞35件です。このカンファレンスでは、3 つの Resource Paper Award (ResourceAward) と Social Impact Award (

Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Li Feifei 氏のチームは、ロボットに空間知能を与え、GPT-4o を統合する ReKep を提案しました Sep 03, 2024 pm 05:18 PM

ビジョンとロボット学習の緊密な統合。最近話題の1X人型ロボットNEOと合わせて、2つのロボットハンドがスムーズに連携して服をたたむ、お茶を入れる、靴を詰めるといった動作をしていると、いよいよロボットの時代が到来するのではないかと感じられるかもしれません。実際、これらの滑らかな動きは、高度なロボット技術 + 精緻なフレーム設計 + マルチモーダル大型モデルの成果です。有用なロボットは多くの場合、環境との複雑かつ絶妙な相互作用を必要とし、環境は空間領域および時間領域の制約として表現できることがわかっています。たとえば、ロボットにお茶を注いでもらいたい場合、ロボットはまずティーポットのハンドルを掴んで、お茶をこぼさないように垂直に保ち、次にポットの口がカップの口と揃うまでスムーズに動かす必要があります。 、そしてティーポットを一定の角度に傾けます。これ

分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います 分散型人工知能カンファレンス DAI 2024 論文募集: エージェント デイ、強化学習の父であるリチャード サットン氏が出席します。 Yan Shuicheng、Sergey Levine、DeepMind の科学者が基調講演を行います Aug 22, 2024 pm 08:02 PM

会議の紹介 科学技術の急速な発展に伴い、人工知能は社会の進歩を促進する重要な力となっています。この時代に、分散型人工知能 (DAI) の革新と応用を目撃し、参加できることは幸運です。分散型人工知能は人工知能分野の重要な分野であり、近年ますます注目を集めています。大規模言語モデル (LLM) に基づくエージェントは、大規模モデルの強力な言語理解機能と生成機能を組み合わせることで、自然言語対話、知識推論、タスク計画などにおいて大きな可能性を示しました。 AIAgent は大きな言語モデルを引き継ぎ、現在の AI 界隈で話題になっています。アウ

宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました 宏蒙スマートトラベルS9とフルシナリオ新製品発売カンファレンス、多数の大ヒット新製品が一緒にリリースされました Aug 08, 2024 am 07:02 AM

今日の午後、Hongmeng Zhixingは新しいブランドと新車を正式に歓迎しました。 8月6日、ファーウェイはHongmeng Smart Xingxing S9およびファーウェイのフルシナリオ新製品発表カンファレンスを開催し、パノラマスマートフラッグシップセダンXiangjie S9、新しいM7ProおよびHuawei novaFlip、MatePad Pro 12.2インチ、新しいMatePad Air、Huawei Bisheng Withを発表しました。レーザー プリンタ X1 シリーズ、FreeBuds6i、WATCHFIT3、スマート スクリーン S5Pro など、スマート トラベル、スマート オフィスからスマート ウェアに至るまで、多くの新しいオールシナリオ スマート製品を開発し、ファーウェイは消費者にスマートな体験を提供するフル シナリオのスマート エコシステムを構築し続けています。すべてのインターネット。宏孟志興氏:スマートカー業界のアップグレードを促進するための徹底的な権限付与 ファーウェイは中国の自動車業界パートナーと提携して、

See all articles