Google は最近、TpuGraphs と呼ばれるモデル トレーニング データ セットを発表しました。これは主にコンパイラーを最適化し、人工知能の深層学習機能を向上させるために使用されます。
▲ 画像出典 Google Blog(以下同)
Google は、現在の AI 深層学習システムは通常、トレーニングに TensorFlow、JAX、PyTorch などのフレームワークを使用していると指摘しました。これらのフレームワークは主に、基礎となるコンパイラーのヒューリスティックを通じてモデルを最適化します。関連するコンパイラーに「学習コスト モデル」を適用すると、コンパイラーのパフォーマンスが向上し、最終出力モデルの深層学習機能が強化されます。
Google が立ち上げた TpuGraphs データセットは、「学習コスト モデル」であることが IT House によって判明しました。このデータ セットには主に、ResNet、EfficientNet、Mask R-CNN、Transformer などのさまざまな一般的なモデル アーキテクチャをカバーする、さまざまなオープン ソースのディープ ラーニング プログラムが含まれています。
Google は、業界の競合他社と比較して、Google の TpuGraphs データセットは「平均グラフ サイズ」の点で 770 倍、「グラフの数」の点で 25 倍大きいと主張しています。 Google は、TpuGraphs データセットを適用すると、最終出力モデルの「スケーラビリティ」、「効率」、「品質」の問題を効果的に解決できると主張しています
さらに、Google は、GST (グラフ セグメント トレーニング) と呼ばれるモデル トレーニング手法も開始しました。これにより、メモリが限られたデバイス上で大規模なグラフ ニューラル ネットワークのトレーニングが可能になります。この方法により、モデルの「エンドツーエンドのトレーニング時間」を 3 分の 1 に短縮でき、モデルのトレーニング効率を効果的に向上させることができると言われています。
以上がGoogle、AI モデルの深層学習機能を向上させる TpuGraphs トレーニング データセットを発表の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。