Alibaba Cloudが包括的な変革計画を開始し、大規模言語モデル「Tongyi Qianwen」を開始
5月23日のニュースによると、アリババグループの子会社であるアリババクラウドは、事業戦略、組織、運営をさらに改善するために、組織と人材の最適化を計画しているという。このニュースは、アリババグループ取締役会会長兼アリババクラウドインテリジェンスCEOの張勇氏が、アリババクラウドがアリババグループから完全に独立し、今後12か月以内に上場を完了すると発表した5日前に発表された。
複数の情報筋によると、この最適化計画は5月中旬に開始され、アリババグループは先月昨年の業績を発表したばかりだという。 Alibaba Cloud の 7% の人員削減に関するニュースは大きな注目を集めましたが、Alibaba Cloud は、これは組織の地位と人材の日常的な最適化であると回答しました。関係者によると、同社の解雇補償基準は「N 1 1」で、未取得の年次休暇や同行者休暇は現金に換算できるという。
組織と人材の最適化は毎年行われており、アリババグループの重要な事業セグメントであるアリババクラウドも例外ではありません。この最適化は、ビジネス戦略をさらに強化し、組織の効率を向上させるための動きとみなされます。張勇氏は昨年12月にアリババクラウドを引き継いで以来、数多くの重要な措置を講じてきたが、その一つがアリババクラウド製品史上最大の値下げだ。今回の値下げは、クラウドサービスのコスト削減とシェア拡大を目的としている。
IDC のデータによると、Alibaba Cloud は国内のパブリック クラウド市場で常に主導的な地位を占めてきましたが、2022 年下半期にはその市場シェアが前年同期と比較して 4.8% 減少しました。同時に、パブリッククラウド市場全体の成長率は著しく鈍化しており、売上成長率は前年比で24パーセント近く低下しています。これが Alibaba Cloud の最適化の背景にある可能性があります。
セグメント間の取引の影響を相殺した後、今年第 1 四半期のアリババ グループのクラウド ビジネス収益は前年同期比 2% 減少し、185 億 8,200 万元となりました。この状況に対応して、Alibaba Cloudは4月に最新の大規模言語モデル「Tongyi Qianwen」をリリースし、人工知能時代の発展に適応するためにすべての製品を包括的に変革する予定です。
要約すると、Alibaba Cloud の組織と人材の最適化計画は、ビジネス戦略をさらに最適化し、組織の効率を向上させ、現在のパブリック クラウド市場の変化に適応することを目的としています。 Alibaba Cloud は、ユーザーにより良いクラウド サービスを提供するために、クラウド コンピューティング分野での主導的地位を維持するよう引き続き努力していきます。
以上がAlibaba Cloudが包括的な変革計画を開始し、大規模言語モデル「Tongyi Qianwen」を開始の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









8月5日のこのウェブサイトのニュースによると、Alibaba Cloudは、2024年のYunqiカンファレンスが9月19日から21日まで杭州市Yunqiタウンで開催されると発表した。3日間のメインフォーラム、400のサブフォーラム、および並行トピックが開催される。およそ4万平方メートルの展示エリアもございます。 Yunqi Conference は無料で一般公開されており、今後は Yunqi Conference の公式ウェブサイトから無料チケットを申し込むことができます。チケットのウェブサイトは次のとおりです。 https://yunqi.aliyun.com/2024 /ticket-list 報告によると、Yunqi カンファレンスは 2009 年に始まり、2011 年に最初の中国ウェブサイト開発フォーラムと名付けられ、2015 年に Alibaba Cloud Developer Conference に発展しました。 、正式に「Yunqi Conference」と改名され、成功した動きを続けています

Alibaba Cloud は本日、パラメトリック モデルと会話モデルを含む Qwen-14B と呼ばれるオープンソース プロジェクトを発表しました。このオープンソース プロジェクトでは、無料で商用利用が許可されています。このサイトには次のように記載されています: Alibaba Cloud は、70 億相当のパラメータ モデル Qwen-7B を以前にオープンソース化しました。1 か月以上のダウンロード量は 100 万回を超えました。アリババが提供したデータによると、 Cloud、Qwen -14B は、複数の信頼できる評価において同じサイズのモデルを上回り、一部の指標は Llama2-70B にさえ近いものです。報道によると、Qwen-14B は複数の言語をサポートする高性能のオープンソース モデルです。全体的なトレーニング データは 3 兆トークンを超え、より強力な推論、認知、計画、記憶能力を備え、最大 8k のコンテキスト ウィンドウをサポートします。

言語モデルは、通常は文字列の形式であるテキストについて推論しますが、モデルへの入力は数値のみであるため、テキストを数値形式に変換する必要があります。トークン化は自然言語処理の基本タスクであり、特定のニーズに応じて、連続するテキスト シーケンス (文、段落など) を文字シーケンス (単語、フレーズ、文字、句読点など) に分割できます。その中の単位はトークンまたはワードと呼ばれます。以下の図に示す具体的なプロセスに従って、まずテキスト文がユニットに分割され、次に単一の要素がデジタル化され (ベクトルにマッピングされ)、次にこれらのベクトルがエンコード用のモデルに入力され、最後に下流のタスクに出力され、さらに最終結果を取得します。テキストセグメンテーションは、テキストセグメンテーションの粒度に応じて Toke に分割できます。

コンピレーション|Xingxuan によって制作|51CTO テクノロジー スタック (WeChat ID: blog51cto) 過去 2 年間、私は従来のシステムよりも大規模言語モデル (LLM) を使用した生成 AI プロジェクトに多く関与してきました。サーバーレス クラウド コンピューティングが恋しくなってきました。そのアプリケーションは、会話型 AI の強化から、さまざまな業界向けの複雑な分析ソリューションやその他の多くの機能の提供まで多岐にわたります。多くの企業は、パブリック クラウド プロバイダーが既製のエコシステムをすでに提供しており、それが最も抵抗の少ない方法であるため、これらのモデルをクラウド プラットフォームにデプロイしています。ただし、安くはありません。クラウドは、スケーラビリティ、効率、高度なコンピューティング機能 (オンデマンドで利用可能な GPU) などの他の利点も提供します。パブリック クラウド プラットフォームでの LLM の展開については、あまり知られていない側面がいくつかあります

2018 年に Google が BERT をリリースしました。リリースされると、11 個の NLP タスクの最先端 (Sota) 結果を一気に打ち破り、NLP 界の新たなマイルストーンとなりました。BERT の構造は次のとおりです。下の図では、左側は BERT モデルのプリセット、右側はトレーニング プロセス、右側は特定のタスクの微調整プロセスです。このうち、微調整ステージは、テキスト分類、品詞のタグ付け、質問と回答システムなど、その後のいくつかの下流タスクで使用されるときに微調整するためのものです。BERT はさまざまな上で微調整できます。構造を調整せずにタスクを実行できます。 「事前トレーニング済み言語モデル + 下流タスク微調整」のタスク設計により、強力なモデル効果をもたらします。以来、「言語モデルの事前トレーニング + 下流タスクの微調整」が NLP 分野のトレーニングの主流になりました。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

言語モデルが前例のない規模に拡大するにつれて、下流タスクの包括的な微調整には法外なコストがかかります。この問題を解決するために、研究者はPEFT法に注目し、採用し始めました。 PEFT 手法の主なアイデアは、微調整の範囲を少数のパラメータ セットに制限して、自然言語理解タスクで最先端のパフォーマンスを達成しながら計算コストを削減することです。このようにして、研究者は高いパフォーマンスを維持しながらコンピューティング リソースを節約でき、自然言語処理の分野に新たな研究のホットスポットをもたらします。 RoSA は、一連のベンチマークでの実験を通じて、同じパラメーター バジェットを使用した以前の低ランク適応 (LoRA) および純粋なスパース微調整手法よりも優れたパフォーマンスを発揮することが判明した新しい PEFT 手法です。この記事ではさらに詳しく説明します

Maven の詳細説明 Alibaba Cloud イメージ設定 Maven は Java プロジェクト管理ツールで、Maven を設定することで依存ライブラリのダウンロードやプロジェクトのビルドが簡単に行えます。 Alibaba Cloud イメージを使用すると、Maven のダウンロード速度が向上し、プロジェクトの構築効率が向上します。この記事では、Alibaba Cloud ミラーリングの設定方法を詳しく紹介し、具体的なコード例を示します。 Alibaba Cloud イメージとは何ですか? Alibaba Cloud Mirror は、Alibaba Cloud が提供する Maven ミラー サービスです。Alibaba Cloud Mirror を使用すると、Maven 依存関係ライブラリのダウンロードを大幅に高速化できます。アリババクラウドミラー
