


新しい大規模な音声対話モデルが中国で開始されました。Kai-Fu Lee 氏が主導し、Zero One と All 社が参加し、中国語と英語のバイリンガリズムとマルチモダリティをサポートし、オープンソースで商用利用可能です。
初の中国語と英語のバイリンガル音声対話オープンソース大型モデルが登場!
ここ数日、大規模な音声テキストのマルチモーダル モデルに関する論文が arXiv に掲載され、Kai-fu Lee 氏の大規模モデル会社 01.ai - 01.ai - の名前が掲載されました。署名会社の中に登場しました。
写真
この論文では、LLaSM と呼ばれる中国語と英語のバイリンガル商業対話モデルを紹介します。このモデルは録音とテキスト入力をサポートするだけでなく、「ハイブリッド ダブル」の機能を実現できます。
写真
研究によると「ボイスチャット」 「AIとAIの組み合わせです。人々が対話するためのより便利で自然な方法は、テキスト入力だけではありません。
大きなモデルを使用します。一部のネチズンは、すでに「寝転んで話しながらコードを書く」というシナリオを想像しています。 。
写真
この研究は、LinkSoul.AI、北京大学、01Wanyuan によって共同で完了しました。現在はオープンソースであり、Try it で直接使用できます。 Hugface で登場
写真
仕組みを見てみましょう
テキストと音声入力をサポートし、携帯電話でも再生できます
研究者によると、LLaSM は、中国語と英語のバイリンガル音声テキストのマルチモーダル対話をサポートする、オープンソースで商用利用可能な初の対話モデルです。
それでは、音声テキスト入力と中国語と英語のバイリンガル機能を見てみましょう。
まず第一に、中国語と英語の文化的衝突を起こし、英語で李白を評価してみましょう:
写真
それははい、正しく李白の王朝について言及されました。英語が読めない場合は、英語を直接中国語に翻訳しても問題ありません。
写真
次の演習では、中国語 A を試してみましょう。中国語の文に「揚げ物」という単語を追加する英語混合の質問。モデルの出力効果も非常に良好です。
Picture
モデルをもう一度試して、いくつかの評価を実行して、どれが適切であるかを確認してみましょう。素晴らしい、
一定期間考えた後、このモデルは非常に客観的かつ中立的な評価を与えており、また、大規模なビジネスに必要な基本的な知識と常識も備えていることがわかります。モデル(手動ドッグヘッド)
画像
もちろんパソコンだけでなく、携帯電話でもプレイ可能です。
「おすすめのレシピを教えてください」と音声で入力してみましょう:
モデルが正確に「なすのチーズ」のレシピを出力しているのがわかりますが、味がわかりません良いか悪いか。
しかし、試してみると、このモデルには時々バグがあることもわかりました。
たとえば、「人間の会話をあまり理解できない」場合があります。
中国語と英語の混合コンテンツの出力が必要です。理解していないふりをして英語で出力します:
Picture
中国語の混合「テイラー・スウィフトのレッド」を聞きたいのですが、モデルに重大なエラーがあり、同じ文章を繰り返し出力し続けて停止することもできません...
写真
一般的に、中国語と英語が混在する質問や要件に遭遇した場合、モデルの出力機能はまだあまり優れていません。
しかし、分離しても、中国語と英語の表現能力は依然として優れています。
では、このようなモデルはどのように実装されるのでしょうか?
どんな新しいモデルを作りましたか?
試用した結果から判断すると、LLaSM には 2 つの主な特徴があります。1 つは中国語と英語の入力をサポートし、もう 1 つは音声とテキストの二重入力です。
これら 2 つの点を達成するには、アーキテクチャとトレーニング データにそれぞれ調整を加える必要があります。
アーキテクチャの観点から見ると、LLaSM は現在の音声認識モデルと大規模言語モデルを統合しています。
LLaSM は、自動音声認識モデル Whisper、モーダル アダプター、ラージ モデル LLaMA の 3 つの部分で構成されます。
このプロセスでは、Whisper は元の音声入力を受信し、音声特徴のベクトル表現を出力します。モーダル アダプターの役割は、音声とテキストの埋め込みを調整することです。 LLaMA は、音声とテキストの入力命令を理解し、応答を生成する役割を果たします。
写真
モデルのトレーニングは 2 つの段階に分かれています。最初の段階はモダリティ アダプターをトレーニングすることであり、エンコーダーと大規模なモデルがフリーズされ、モデルが音声とテキストの配置を学習できるようになります。第 2 段階では、エンコーダーをフリーズし、モーダル アダプターと大規模なモデルをトレーニングして、モデルのマルチモーダル対話機能を向上させます。
研究者らは、トレーニング データに基づいて、199,000 の対話と 508,000 の音声テキストのデータセットを含むデータベースを編集しました。 LLaSM-Audio-命令のサンプル。
508,000 の音声テキスト サンプルのうち、80,000 は中国語の音声サンプル、428,000 は英語の音声サンプルです
研究者は主に WizardLM、ShareGPT、GPT-4 - LLM などのデータセットに基づいていますテキスト読み上げ技術を使用して、無効な会話をフィルタリングしながらこれらのデータセットの音声パケットを生成します。
写真
これも、データセットに続く最大の中国語と英語の音声テキスト命令ですが、まだ整理中です。完成します。後でオープンソース化されます。
ただし、現時点では、この論文の出力効果を他の音声モデルやテキスト モデルと比較したものはありません。
著者の紹介
この論文の著者は以下の出身です。 LinkSoul.AI、北京大学 Yu Shu 氏と Zero One Thing
の共著者である Siwei Dong 氏は、どちらも LinkSoul.AI の出身で、以前は北京 Zhiyuan AI Research Institute で働いていました。
LinkSoul.AI は、初のオープンソース Llama 2 中国語大規模モデルを以前にリリースした AI スタートアップ企業です。
写真
李凱福氏率いる大手模型会社として、ゼロワンとワンワゴンもこの研究に貢献した。著者の黄文豪の「抱き顔」のページには、彼が復旦大学を卒業したことが示されています。
写真
紙のアドレス:
https://www.php.cn/link/47c917b09f2bc64b2916c0824c715923
デモアドレス:
https://www.php.cn/link/bcd0049c35799cdf57d06eaf2eb3cff6
以上が新しい大規模な音声対話モデルが中国で開始されました。Kai-Fu Lee 氏が主導し、Zero One と All 社が参加し、中国語と英語のバイリンガリズムとマルチモダリティをサポートし、オープンソースで商用利用可能です。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

今日は、時系列予測のパフォーマンスを向上させるために、時系列データを潜在空間上の大規模な自然言語処理 (NLP) モデルと整合させる方法を提案するコネチカット大学の最近の研究成果を紹介したいと思います。この方法の鍵は、潜在的な空間ヒント (プロンプト) を使用して時系列予測の精度を高めることです。論文タイトル: S2IP-LLM: SemanticSpaceInformedPromptLearningwithLLMforTimeSeriesForecasting ダウンロードアドレス: https://arxiv.org/pdf/2403.05798v1.pdf 1. 大きな問題の背景モデル

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

この論文では、自動運転においてさまざまな視野角 (遠近法や鳥瞰図など) から物体を正確に検出するという問題、特に、特徴を遠近法 (PV) 空間から鳥瞰図 (BEV) 空間に効果的に変換する方法について検討します。 Visual Transformation (VT) モジュールを介して実装されます。既存の手法は、2D から 3D への変換と 3D から 2D への変換という 2 つの戦略に大別されます。 2D から 3D への手法は、深さの確率を予測することで高密度の 2D フィーチャを改善しますが、特に遠方の領域では、深さ予測に固有の不確実性により不正確さが生じる可能性があります。 3D から 2D への方法では通常、3D クエリを使用して 2D フィーチャをサンプリングし、Transformer を通じて 3D と 2D フィーチャ間の対応のアテンション ウェイトを学習します。これにより、計算時間と展開時間が増加します。
