元の意味を変えずに、中国語に書き直す必要があります: 以前にアマゾン ウェブ サービス (AWS) が re:Invent 2023 で発表した、生成型人工知能の加速を目的とした一連の新テクノロジーを紹介しました。インテリジェンス関連技術の実用化に向けて
これらには、NVIDIA とのより深い戦略的パートナーシップの確立、GH200 スーパー チップをベースにした初のコンピューティング クラスター、新しい自社開発の汎用プロセッサーや AI 推論チップなどが含まれますが、これらに限定されません。
しかし、誰もが知っているように、生成 AI はハードウェアの強力なコンピューティング能力だけでなく、優れた AI モデルにも依存します。特に現在の技術背景では、開発者や企業ユーザーは多くの選択肢に直面することが多く、モデルごとに得意な生成カテゴリーが異なるため、モデルの合理的な選択、パラメータ設定、さらには効果の評価につながります。これは多くのユーザーにとって非常に面倒なことであり、生成 AI を実際のアプリケーション シナリオに適用することの難易度も大幅に増加しています。
では、生成 AI の実用化における困難を解決し、新しいテクノロジーの生産性を真に解放するにはどうすればよいでしょうか?北京時間2023年11月30日早朝、AWSは一連の回答を出した。
現在、より多くのモデルの選択肢が統合されています
まず、AWS は本日、Amazon Bedrock サービスのさらなる拡張を発表しました。以前、このサービスには、AI21 Labs、Anthropic、Cohere、Meta、Stability AI、Amazon など、業界をリードする複数の大規模言語モデル ソースがすでに含まれていました。このホスティング サービスを通じて、ユーザーは他のプラットフォームにアクセスすることなく、1 つのプラットフォームでさまざまな大規模な言語モデルの使用を簡単に選択できます。
本日の基調講演で、AI セキュリティおよび研究会社 Anthropic は、Claude 2.1 モデルの最新バージョンを Amazon Bedrock に導入したと発表しました。 Claude 2.1 は、大量のテキストの要約、Q&A の実行、および比較に優れており、財務諸表や内部データ セットの操作に特に適しています。 Anthropic によると、Claude 2.1 は以前のモデルと比較して誠実さが大幅に向上し、虚偽の発言が 2 分の 1 に減少しました。
同時に、有名な大規模言語モデル Llama 2 も、最大 700 億パラメータのスケールを持つ新しいバージョンを Amazon Bedrock に導入しました。 Meta の次世代の大規模言語モデルである Llama 2 には、前世代よりも 40% 多くのトレーニング データが含まれており、コンテキストの長さは 2 倍になっています。最新バージョンでは、指示のデータセットと 100 万を超える人間による注釈によって微調整され、会話のユースケース向けに最適化されています。
さらに重要なことは、AWS が以前に独自の AI 大規模言語モデル Titan の開発に成功していることです。以前にリリースされたテキスト生成用の Amazon Titan Text Embeddings と Amazon Titan Text モデルに加えて、画像生成に焦点を当てた Amazon Titan Image Generator と Amazon Titan Multimodal Embeddings も本日正式に発表されました。従来の生成画像モデルと比較して、AWS 独自のモデルには著作権保護のための独自のテクノロジーも埋め込まれており、将来的にはより正確な検索結果を生成するためにデータベースへの画像およびテキスト情報の埋め込みもサポートされています。
さらに、AWS は、大規模なモデルによって生成されたコンテンツに対する著作権補償ポリシーも革新的に提案しました。つまり、AWS は、一般に入手可能な Amazon Titan モデルまたはその出力がサードパーティの著作権を侵害しているという告発に対して顧客を補償します。
大規模な言語モデルをより正確かつ安全に使用できるようになりました従来のユースケースでは、企業は、自社に最適なモデルを選択する前に、ベンチマークの決定、評価ツールのセットアップ、豊富な専門知識に基づいたさまざまなモデルの評価に長い時間を費やす必要がある場合があります。
しかし、Amazon Bedrock のモデル評価機能を使用すると、上記のすべてのトラブルを回避できます。ユーザーは、コンソールで事前に設定された評価基準 (精度、堅牢性など) を選択し、独自のテスト データ セットをアップロードするか、事前に設定されたデータ量から選択するだけで完全な自動化を実行できます。大規模モデルの評価プロセス。
手動評価が必要な場合でも、AWS の専門家チームは、お客様が定義した指標 (関連性、スタイル、ブランドイメージなど) に基づいて詳細な評価レポートを提供できます。時間を大幅に節約すると同時に、企業が生成 AI を使用するための技術的な敷居を大幅に下げます。
それだけでなく、Amazon Bedrock では、Cohere Command、Meta Llama 2、Amazon Titan、将来適応される Anthropic Claude 2.1 を含む複数の大規模な言語モデルにより、ユーザーが独自の言語に合わせて微調整できるようになります。ニーズ。さらに、Amazon Bedrock ナレッジベース機能を使用すると、大規模なモデルを企業独自のデータソースに接続できるようになり、チャットボットや質疑応答システムなどのユースケースに対して、より正確で企業固有の応答が提供されます。
同時に、生成 AI の使用における保護メカニズムに関して、Amazon Bedrock の Guardrails により、企業は生成 AI の言語原則をカスタマイズできるようになります。どのトピックを拒否するかを設定したり、ヘイトスピーチ、侮辱、性的言葉、暴力のしきい値を設定して、有害なコンテンツを希望のレベルまでフィルタリングすることができます。将来的には、Guardrails for Amazon Bedrock にもワードフィルター機能が導入され、複数の異なるモデルのユースケースにわたって同じまたは異なるガードレベルが使用される予定です。
多くのユーザーの信頼を得たAWSは、生成AIの導入を本格的に推進します
新しいテクノロジーを通じて生成 AI の選択と使用のプロセスを劇的に簡素化することに加えて、AWS の高く評価されている Amazon SageMaker サービスは現在、Hugging Face、Perplexity、Salesforce、Stability AI、Vanguard などの顧客によって継続的なトレーニングと強化のために使用されています。彼らの大規模な言語モデル。自社のコンピューティング機器を使用する場合と比較して、AWS のハードウェアの大きな利点と柔軟なビジネス モデルにより、「大規模モデル」の進化がより迅速かつ簡単になります。
それだけでなく、Alida、Automation Anywhere、Blueshift、BMW Group、Clariant、Coinbase、Cox Automotive、dentsu、Druva、Genesys、Gilead、GoDaddy、Hellmann Worldwide Logistics、KONE、LexisNexis Legal & Professional、A などが含まれていることがわかります。 Lonely Planet や NatWest などの一連の企業は、データの漏洩や他の競合他社による使用を心配することなく、AWS にデータを置き、このデータを使用して独自の生成 AI サービスをプライベートに「カスタマイズ」することを選択しました。また、「Amazon Bedrock の入力または出力は基本モデルのトレーニングには使用されないため、これは AWS の自己保証であるだけでなく、AWS がサードパーティの大規模モデルプロバイダーに課した技術的制約でもあります。
実際、今日の基調講演に登場した AWS の関連パートナーを列挙すると、AWS でのトレーニングとイテレーションを加速するための基本的なモデルの選択など、今日の生成 AI の業界チェーン リンクのほぼすべてをカバーしていることがわかります。 ; モデルサービスプロバイダーは、より多くのユーザーにリーチするために AWS でサービスをホストしており、プラットフォームにより AI テクノロジーの使用が大幅に簡素化され、サービス品質と業務運営効率が向上するため、大規模モデルのユーザーも AWS の関連支払いを好みます。優れたコストパフォーマンスと極めて高い信頼性を実現。
数か月前、誰もが「生成型人工知能」を実際の企業やユーザーに真に適用し、メリットをもたらすにはどうすればよいかを考えていたかもしれません。しかし、今日の AWS re:Invent 2023 基調講演の後、答えは明らかです
以上がAWS は生成 AI の実装のための包括的なソリューションを提供しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。