ホームページ テクノロジー周辺機器 AI 大規模なモデルをクラウドにデプロイするための 3 つの秘密

大規模なモデルをクラウドにデプロイするための 3 つの秘密

Apr 24, 2024 pm 03:00 PM
言語モデル llms 安全な送信

大規模なモデルをクラウドにデプロイするための 3 つの秘密

##Xingxuan が作成 | 51CTO テクノロジー スタック (WeChat ID: blog51cto)

過去 2 年間で、私はさらに関与しました従来のシステムではなく大規模言語モデル (LLM) を使用する生成 AI プロジェクト。サーバーレス クラウド コンピューティングが恋しくなってきました。そのアプリケーションは、会話型 AI の強化から、さまざまな業界向けの複雑な分析ソリューションやその他の多くの機能の提供まで多岐にわたります。多くの企業は、パブリック クラウド プロバイダーが既製のエコシステムをすでに提供しており、それが最も抵抗の少ない方法であるため、これらのモデルをクラウド プラットフォームにデプロイしています。ただし、安くはありません。

クラウドは、スケーラビリティ、効率性、高度なコンピューティング機能 (オンデマンドで利用可能な GPU) などの他の利点も提供します。パブリック クラウド プラットフォームに LLM を展開するプロセスには、成功または失敗に大きな影響を与える可能性があるあまり知られていない秘密がいくつかあります。おそらく、LLM を扱う AI 専門家が少なく、この分野での経験がまだ少ないため、知識体系には多くのギャップがあると考えられます。

LLM をクラウドにデプロイする際の、あまり知られていない 3 つの「コツ」を見てみましょう。AI エンジニアさえも知らないかもしれません。これらのエンジニアが年収 30 万ドルを超えることが多いことを考えると、彼らの仕事の詳細について考える時期が来ているのかもしれません。誰もが髪の毛に火がついたかのように AI への道を急いでいますが、これまで以上に多くの間違いを犯しているのが見えます。

1. 管理のコスト効率と拡張性

クラウド プラットフォームに LLM を展開する主な魅力の 1 つは、オンデマンドでリソースを拡張できることです。クラウド プラットフォームには、マウスをクリックするだけで、または自動的に割り当てられるリソースがあるため、優れたキャパシティ プランナーである必要はありません。

しかし、待ってください、私たちはクラウド コンピューティングを使用したときに犯したのと同じ間違いを犯そうとしています。スケーリングしながらコストを管理することは、多くの人が効果的にナビゲートするために必要なスキルです。クラウド サービスは通常、公共料金と同様に、消費されたコンピューティング リソースに基づいて料金を請求することに注意してください。処理すればするほど、支払う金額も高くなります。 GPU のコストが高い (そして消費電力も高い) ことを考えると、これはパブリック クラウド プロバイダーが提供する LLM を使用する場合の主要な懸念事項です。

クラウド プラットフォームによって提供されるツールや、信頼できるサードパーティのコスト ガバナンスおよびモニタリング サービス プロバイダー (finops) によって提供されるツールなど、コスト管理ツールを必ず使用してください。たとえば、自動スケーリングとスケジューリングを実装したり、適切なインスタンス タイプを選択したり、プリエンプティブル インスタンスを使用してコストを最適化したりします。さらに、展開を継続的に監視し、予測された負荷だけではなく使用状況に基づいてリソースを調整することを忘れないでください。これは、何としてもオーバープロビジョニングを回避することを意味します (冗談が通じますか?)。

2. マルチテナント環境におけるデータ プライバシー

LLM の展開には、多くの場合、機密データや独自データが含まれる可能性のある大量のデータの処理と知識モデルのトレーニングが含まれます。パブリック クラウドを使用する場合のリスクは、「ネイバー」が同じ物理ハードウェア上で実行される処理インスタンスの形式であることです。したがって、パブリック クラウド ストレージには、データの保存および処理中に、パブリック クラウド データ センター内の同じ物理ハードウェア上で実行されている他の仮想マシンからデータにアクセスされる可能性があるというリスクが伴います。 この問題を解決するために、多くのパブリック クラウド プロバイダーが企業向けにクラウド セキュリティ オプションを提供しています。これらのオプションは、物理ハードウェア上で実行されている他の仮想マシンによるアクセスからデータを分離して保護します。 もう 1 つのセキュリティ問題は、保存および処理中のデータの送信です。データはパブリック クラウド ネットワーク経由で送信される可能性があるため、送信中に傍受または盗聴される可能性があります。この問題を解決するために、パブリック クラウドは通常、暗号化と安全な送信プロトコルを提供して、送信中のデータのセキュリティを保護します。 全体として、LLM の導入について

パブリック クラウド プロバイダーにこのことについて尋ねると、彼らは、それがいかに不可能であるかを示す最新の PowerPoint プレゼンテーションを急いで提出するでしょう。これはほぼ正しいですが、完全に正確というわけではありません。このリスクはすべてのマルチテナント システムに存在します。軽減する必要があります。単一の国でのみ運営されているなど、クラウド プロバイダーの規模が小さいほど、この問題が発生する可能性が高くなることがわかりました。これはデータ ストアと LLM に当てはまります。

その秘訣は、保存中および転送中のデータ暗号化、ID およびアクセス管理 (IAM)、分離ポリシーといった厳格なセキュリティ基準を満たし、その証明を提供するクラウド プロバイダーを選択することです。もちろん、クラウド上でマルチテナント LLM を使用するリスクを軽減するには、独自のセキュリティ ポリシーとセキュリティ テクノロジ スタックを実装することをお勧めします。

3. ステートフル モデルのデプロイメントの処理

大規模言語モデル (LLM) はほとんどがステートフルであり、対話間で情報を保持します。この古いアプローチには、継続的な学習シナリオでより効率的になれるという新しい利点があります。ただし、クラウド環境のインスタンスは設計上一時的またはステートレスである可能性があるため、クラウド環境でこれらのモデルのステートフル性を管理することは困難です。

ステートフル デプロイメントをサポートするオーケストレーション ツール (Kubernetes など) が役立ちます。大規模な言語モデルの永続ストレージ オプションを活用し、セッション間で状態を維持および操作するように構成できます。大規模な言語モデルの継続性とパフォーマンスをサポートするには、これを行う必要があります。

生成型人工知能の爆発的な成長により、大規模な言語モデルをクラウド プラットフォームに展開することは当然の結論です。ほとんどの企業にとって、クラウドを使用しないことはあまりにも不便です。これから起こる狂乱について私が心配しているのは、簡単に解決できる問題を見逃したり、最終的にはほとんど避けられるような大きな、高くつく間違いを犯すことになるのではないかということです。

AIGC の詳細については、次のサイトをご覧ください:

51CTO AI.x コミュニティ

https://www.51cto.com/aigc/

以上が大規模なモデルをクラウドにデプロイするための 3 つの秘密の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

トークン化を 1 つの記事で理解しましょう! トークン化を 1 つの記事で理解しましょう! Apr 12, 2024 pm 02:31 PM

言語モデルは、通常は文字列の形式であるテキストについて推論しますが、モデルへの入力は数値のみであるため、テキストを数値形式に変換する必要があります。トークン化は自然言語処理の基本タスクであり、特定のニーズに応じて、連続するテキスト シーケンス (文、段落など) を文字シーケンス (単語、フレーズ、文字、句読点など) に分割できます。その中の単位はトークンまたはワードと呼ばれます。以下の図に示す具体的なプロセスに従って、まずテキスト文がユニットに分割され、次に単一の要素がデジタル化され (ベクトルにマッピングされ)、次にこれらのベクトルがエンコード用のモデルに入力され、最後に下流のタスクに出力され、さらに最終結果を取得します。テキストセグメンテーションは、テキストセグメンテーションの粒度に応じて Toke に分割できます。

Vue を使用してデータの暗号化と安全な送信を行う方法 Vue を使用してデータの暗号化と安全な送信を行う方法 Aug 02, 2023 pm 02:58 PM

Vue を使用してデータ暗号化と安全な送信を行う方法 はじめに: インターネットの発展に伴い、データ セキュリティへの注目がますます高まっています。 Web アプリケーション開発では、データの暗号化と安全な送信は、ユーザーのプライバシーと機密情報を保護するための重要な手段です。人気の JavaScript フレームワークとして、Vue はデータ暗号化と安全な送信の実現に役立つ豊富なツールとプラグインを提供します。この記事では、Vue を使用してデータの暗号化と安全な送信を行う方法を紹介し、参考となるコード例を示します。 1. データの暗号化とデータの暗号化

大規模言語モデルの効率的なパラメータ微調整 - BitFit/Prefix/Prompt 微調整シリーズ 大規模言語モデルの効率的なパラメータ微調整 - BitFit/Prefix/Prompt 微調整シリーズ Oct 07, 2023 pm 12:13 PM

2018 年に Google が BERT をリリースしました。リリースされると、11 個の NLP タスクの最先端 (Sota) 結果を一気に打ち破り、NLP 界の新たなマイルストーンとなりました。BERT の構造は次のとおりです。下の図では、左側は BERT モデルのプリセット、右側はトレーニング プロセス、右側は特定のタスクの微調整プロセスです。このうち、微調整ステージは、テキスト分類、品詞のタグ付け、質問と回答システムなど、その後のいくつかの下流タスクで使用されるときに微調整するためのものです。BERT はさまざまな上で微調整できます。構造を調整せずにタスクを実行できます。 「事前トレーニング済み言語モデル + 下流タスク微調整」のタスク設計により、強力なモデル効果をもたらします。以来、「言語モデルの事前トレーニング + 下流タスクの微調整」が NLP 分野のトレーニングの主流になりました。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

大規模なモデルをクラウドにデプロイするための 3 つの秘密 大規模なモデルをクラウドにデプロイするための 3 つの秘密 Apr 24, 2024 pm 03:00 PM

コンピレーション|Xingxuan によって制作|51CTO テクノロジー スタック (WeChat ID: blog51cto) 過去 2 年間、私は従来のシステムよりも大規模言語モデル (LLM) を使用した生成 AI プロジェクトに多く関与してきました。サーバーレス クラウド コンピューティングが恋しくなってきました。そのアプリケーションは、会話型 AI の強化から、さまざまな業界向けの複雑な分析ソリューションやその他の多くの機能の提供まで多岐にわたります。多くの企業は、パブリック クラウド プロバイダーが既製のエコシステムをすでに提供しており、それが最も抵抗の少ない方法であるため、これらのモデルをクラウド プラットフォームにデプロイしています。ただし、安くはありません。クラウドは、スケーラビリティ、効率、高度なコンピューティング機能 (オンデマンドで利用可能な GPU) などの他の利点も提供します。パブリック クラウド プラットフォームでの LLM の展開については、あまり知られていない側面がいくつかあります

RoSA: 大規模なモデルパラメータを効率的に微調整するための新しい方法 RoSA: 大規模なモデルパラメータを効率的に微調整するための新しい方法 Jan 18, 2024 pm 05:27 PM

言語モデルが前例のない規模に拡大するにつれて、下流タスクの包括的な微調整には法外なコストがかかります。この問題を解決するために、研究者はPEFT法に注目し、採用し始めました。 PEFT 手法の主なアイデアは、微調整の範囲を少数のパラメータ セットに制限して、自然言語理解タスクで最先端のパフォーマンスを達成しながら計算コストを削減することです。このようにして、研究者は高いパフォーマンスを維持しながらコンピューティング リソースを節約でき、自然言語処理の分野に新たな研究のホットスポットをもたらします。 RoSA は、一連のベンチマークでの実験を通じて、同じパラメーター バジェットを使用した以前の低ランク適応 (LoRA) および純粋なスパース微調整手法よりも優れたパフォーマンスを発揮することが判明した新しい PEFT 手法です。この記事ではさらに詳しく説明します

大規模な言語モデルを微調整するための技術的な課題と最適化戦略を理解するための 1 つの記事 大規模な言語モデルを微調整するための技術的な課題と最適化戦略を理解するための 1 つの記事 Mar 20, 2024 pm 11:01 PM

皆さんこんにちは、私の名前はルガです。今日は、人工知能エコシステムのテクノロジー、特に LLMFine-Tuning について引き続き調査していきます。この記事では、LLMFine-Tuning テクノロジーを引き続き徹底的に分析し、誰もがその実装メカニズムをより深く理解し、市場開発やその他の分野に適用できるようにしていきます。 LLM (LargeLanguageModel) は、人工知能テクノロジーの新しい波をリードしています。この高度な AI は、統計モデルを使用して大量のデータを分析し、単語やフレーズ間の複雑なパターンを学習することで、人間の認知能力と言語能力をシミュレートします。 LLM の強力な機能は、多くの大手企業やテクノロジー愛好家から強い関心を集めており、これらの人工知能主導型の導入を急いでいます。

Meta が 650 億のパラメータを持つ大規模言語モデルである AI 言語モデル LLaMA を発表 Meta が 650 億のパラメータを持つ大規模言語モデルである AI 言語モデル LLaMA を発表 Apr 14, 2023 pm 06:58 PM

2月25日のニュースによると、Metaは現地時間金曜日、研究コミュニティ向けに人工知能(AI)に基づく新しい大規模言語モデルを立ち上げ、ChatGPTに刺激されたMicrosoft、Google、その他の企業も人工知能に参加すると発表した。 . 知的な競争。 Meta の LLaMA は、「Large Language Model MetaAI」(LargeLanguageModelMetaAI) の略称であり、政府、コミュニティ、学術界の研究者および団体が非営利ライセンスに基づいて利用できます。同社は、基礎となるコードをユーザーが利用できるようにするため、ユーザーはモデルを自分で調整して研究関連のユースケースに使用できるようになります。 Meta 氏は、モデルの計算能力要件について次のように述べています。

See all articles