最近、エッジ コンピューティングが注目を集めています。近年で最もエキサイティングなテクノロジーの変化として称賛され、その変革力について多くの話題が広がっています。
ますます強力になる AI/ML アルゴリズムが「インテリジェンス」を再定義し、より安価でより強力な「エッジ」デバイスが利用できるようになったことで、この誇大宣伝はほぼ現実のものとなっています。しかし、エッジ コンピューティングの歴史を考えてみると、それは最近の関心が信じさせるよりもはるかに古いものです。
実際、コンピューティングとインテリジェンスはもともと、ほとんどのアプリケーションで高帯域幅のネットワーク接続がほとんど存在しなかったエッジから始まりました。 1990 年代後半であっても、工場や現場に遠隔配置された重要な測定機器には、受信センサー データを処理するための専用のコンピューティング能力が搭載されていることがよくありました。ただし、これらのデバイスのアルゴリズムは、「インテリジェンス」という点では初歩的なものにすぎません。主に信号処理またはデータ変換です。
クラウドベースのコンピューティングは、ネットワーク機能が向上し、接続性が向上したため、2000 年代後半に注目を集め始めました。同時に、強力な人工知能アルゴリズムが、大量の構造化データおよび非構造化データから意味のある情報を引き出す手段として注目を集めています。わずか 10 年で、クラウド AI は AI アプリケーションの主な選択肢になりました。
ただし、クラウドへの移行には、データのアップロードとダウンロードのコスト、ネットワークの信頼性、データのセキュリティなど、いくつかの問題も伴います。同時に、手頃な価格でありながら強力なエッジ デバイスの台頭により、エッジ コンピューティングの処理能力とコストまたは床面積の間のトレードオフは減少しています。私たちは現在、スマート アプリケーションを構築するための実行可能かつ魅力的な選択肢として「エッジ コンピューティング」を検討する段階に戻っているようです。
エッジ AI とクラウド AI のどちらが優れているかについての議論が激化する中、両方のフレームワークに精通している人なら誰でも、「それは状況による」と答えるでしょう。その理由は、エッジ インフラストラクチャとクラウド インフラストラクチャは競合するものではなく、補完的なフレームワークであるためです。
どちらも、特に人工知能の開発と展開の基盤として、過去数年間で驚異的な開発と改良を経験しました。他のテクノロジの選択と同様、実際の選択は、目的、価値の推進要因、経済性、消費電力、サイズ、接続性などの特定のアプリケーションによって決まります。したがって、適切なインフラストラクチャを設定する前に、クラウドとエッジ AI の長所と短所を理解することが重要です。
クラウドベースの AI は、柔軟性、拡張性、導入の容易さを求める場合に魅力的な選択肢です。現在、ほとんどのクラウド サービス プロバイダーは、AI モデルのトレーニングと展開のための強力なフレームワークを提供し、事前の契約や投資をほとんど必要としない従量課金制のパッケージを提供しています。クラウドは事実上無制限のコンピューティングとストレージのオプションを提供するため、大規模な AI モデルに特に適しています。
しかし、センサーや画像データの継続的な評価を必要とするリアルタイム アプリケーションの場合、データを送受信する必要があり、莫大なコストがかかるため、これは扱いにくいオプションになる可能性があります。また、このデータ転送により、クラウドは閉ループ制御や即時アクションを必要とする低遅延アプリケーションにはほとんど不向きになります。
一方、エッジ AI は、自動アラームや閉ループ制御のためのリアルタイム データ分析には合理的な選択肢です。エッジ インフラストラクチャではエッジ ハードウェアへの先行投資が必要ですが、運用コストはクラウドに比べてはるかに低くなります。
現在、専用の AI アクセラレータと SoM (システム) を備えた NPU (ニューラル プロセッシング ユニット)、TPU (テンソル プロセッシング ユニット)、SOC (システム オン チップ) など、さまざまなエッジ AI ハードウェア オプションが利用可能です。モジュール上)。人工知能用の低コストかつ低消費電力のハードウェアは活発な研究分野であり、より良いオプションを提供する可能性があります。一方で、AI ベースのコンシューマー アプリケーションは、かなり多様なエッジ デバイス (電話、タブレット、PC など) を処理する必要があるため、エッジ デプロイメントは潜在的に困難な見通しになります。
その結果、エッジ インフラストラクチャはラピッド プロトタイピングや拡張が容易ではない可能性があります。 AI モデルの分散トレーニングであるフェデレーテッド ラーニングの概念により、エッジでのトレーニングと展開が可能になりますが、十分なコンピューティング能力を必要とする大規模なモデルをトレーニングするには、クラウドが論理的な選択肢であることに変わりはありません。
しかし、解決策は二者択一である必要はありません。アプリケーションがよりマイクロサービスベースのアーキテクチャに移行するにつれて、アプリケーションは、独自の特定の展開フレームワークを備えたより小さな機能またはマイクロサービスに分割できます。そのため、クラウドとエッジのどちらかを選択するのではなく、特定のアプリケーションに対して両方を最適に使用することに重点を置くことができます。
たとえば、アプリケーションはクラウド上のラピッド プロトタイプとして開始される場合があります。進化するにつれて、低レイテンシーとリアルタイムの意思決定を必要とする機能はエッジに移動できる一方で、スケールと柔軟性を必要とする機能はクラウドに残すことができます。モデルのトレーニングまたは再トレーニングはクラウドで一元管理でき、エッジでのフェデレーテッド ラーニングによってローカルで精度を向上させることができます。同様に、機密データをエッジで処理し、より一般的なデータをクラウドに移動できます。
組織、開発者、実務者は、クラウドとエッジを別個の選択肢として考えるのではなく、エッジからクラウドまでの連続体として、その間にさまざまなインフラストラクチャ オプションがあるものとして考える方がよいでしょう。これには、運用エッジ、ネットワーク エッジ、モバイル エンドポイントなどのさまざまな種類のエッジに加え、プライベート クラウド、パブリック クラウド、クラウドレット、フォグ コンピューティングなど、ネットワーク上のさまざまな種類の分散処理が含まれます。
複雑さは課題となる可能性がありますが、テクノロジーの適切な組み合わせを見つけることで、コストとリスクを最小限に抑えながら AI の価値を最大化するユニークな機会が組織に提供され始めます。
以上がAI インフラストラクチャに関しては、エッジとクラウドのどちらを選択すべきでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。