現在のデータ インフラストラクチャは、クラウド コンピューティング、5G ネットワーク、ビデオ ストリーミングの流入にすでに対応できていますが、アプリケーション全体によってもたらされる最新のデジタル変革をサポートするには十分ではない可能性があります。人工知能の。
代わりに、AI 用のデジタル インフラストラクチャには、まったく別のクラウド コンピューティング フレームワークが必要になる場合があります。この新しいフレームワークでは、特定のデータセンター クラスターの場所とその機能に基づいて既存のデータセンター ネットワークを再定義する必要があります。
最近話題になった ChatGPTAI 人工知能音声合成装置には 100 万人以上のユーザーがおり、マイクロソフトから 100 億米ドルの投資を受けています。さらに、Amazon Web Services は 11 月に StabilityAI と提携し、Google は Lamda と呼ばれる ChatGPT に似たシステムを作成しました。一方、Meta は最近、AI のデータ処理要件を満たすようにサーバー ファームを再構成できるよう、データ センターの建設を一時停止すると発表しました。
人工知能プラットフォームのデータ処理ニーズは、Microsoft による今後の Azure クラウド プラットフォームのアップグレードなしでは、ChatGPT の作成者である OpenAI がプラットフォームの運用を継続できないほどに増大しています。
ChatGPT のような AI プラットフォームの「頭脳」は 2 つの異なる「半球」または「葉」を通じて動作し、前者は必要なすべてのデータを抽出します。これは、ユーザーの質問にすぐに、より「人間的」な方法で回答できるように生成プラットフォームを強化します。
Training Leaf は、ChatGPT が作成するすべてのコンテンツを生成するために必要なすべてのデータ ポイントを処理するために、多くの「計算能力」を必要とします。基本的に、トレーニング リーフはデータ ポイントを抽出し、モデル内でそれらを再編成します。このプロセスは繰り返し発生し、AI エンティティがより深く理解するたびに、情報を吸収し、人間と同じように学んだ内容を伝達する方法を自ら学習します。
これは興味深いプロセスではありますが、Ye のトレーニングには強力なコンピューティング能力だけでなく、最大限の機能を実現するために最先端のグラフィックス プロセッシング ユニット (GPU) 半導体も必要です。さらに、AI プラットフォームの「トレーニング」に重点を置いたインフラストラクチャには大量の電力が必要となるため、データセンターは再生可能エネルギー源の近くに設置する必要があります。新しい液冷システムと再設計されたバックアップ電源および発電機システムも設置する必要がありました。
AI プラットフォームの脳の残りの半分については、ユーザーからの質問に数秒以内に答える責任を負う推論リーフには、現在のデータ インフラストラクチャでは満たすことができない独自のニーズがあります。 。幸いなことに、現在接続されているデータセンター ネットワークはこの需要に対応できますが、必要とされる膨大な処理能力に対処するには施設をアップグレードする必要があります。これらの施設も変電所の近くに設置する必要があります。
最大手のクラウド コンピューティング プロバイダーは現在、データ処理機能を必要としている人工知能スタートアップ企業に提供しています。彼らは AI スタートアップを潜在的な長期顧客として見ているため、このサービスを提供することに積極的です。
そして、大手クラウド コンピューティング企業の間で代理戦争が起こっています。無数のパラメーターを備えた真に大規模な AI プラットフォームを構築できるのは、実際には彼らだけです。
以上が人工知能のためにアップグレードする必要があるデータセンター インフラストラクチャは何ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。