ホームページ テクノロジー周辺機器 AI PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

Apr 12, 2023 pm 12:13 PM
torchrec モデルのトレーニング

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#この記事では、PyTorch をベースにした WeChat の大規模レコメンデーション システム トレーニングについて紹介します。他のディープ ラーニング分野とは異なり、レコメンデーション システムは依然として Tensorflow をトレーニング フレームワークとして使用していますが、これは開発者の大多数によって批判されています。 PyTorchを活用したレコメンデーション研修などの実践もあるが、規模が小さく、実際のビジネス検証が行われていないため、ビジネスの早期導入を促進することが難しい。

2022 年 2 月、PyTorch チームは公式推奨ライブラリ TorchRec を開始しました。私たちのチームは5月に社内業務でTorchRecを試し始め、TorchRecチームとの一連の協力を開始しました。数か月間試用した結果、TorchRec の多くの利点を実感しましたが、非常に大規模なモデルでは、TorchRec にはまだいくつかの欠点があるとも感じています。これらの欠点に対応して、私たちはその問題を補う拡張機能を設計しました。 2022 年 9 月に、私たちが設計した拡張機能の動的埋め込みは、TorchRec のメイン ブランチに正式に統合され、現在も公式チームとともに継続的に最適化が行われています。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践


1.トーチライクが私たちにもたらすもの

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

まず、TorchRec が私たちに何をもたらすかについて話しましょう。レコメンデーション システムは企業のキャッシュ フローに直結することが多く、試行錯誤のコストが非常に高いことは誰もが知っています。そのため、誰もが必要としているのは、ビジネスでテストされたフレームワークです。これが、PyTorch に基づく以前のレコメンデーション フレームワークの一部が広く使用されていない理由です。公式の推奨フレームワークとして、TorchRec は 2022 年 1 月に開始されました。Meta はすでにこれを使用して、Instagram Reels ビジネスで 1,250 億のパラメーター モデルのトレーニングと立ち上げに成功し、ビジネスでテストされた PyTorch フレームワークになりました。 Instagram のような大企業のサポートにより、私たちはさらに自信を持ち、ついに PyTorch に基づくレコメンデーション フレームワークの利点を合理的に検討できるようになりました。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#TorchRec には、チームのメンバーごとに異なるメリットがあります。まず第一に、チーム内のアルゴリズム エンジニアの大多数にとって、PyTorch 推奨フレームワークにより、CV および NLP エンジニアが体験したよりユーザー フレンドリーなダイナミック グラフィックスとデバッグ エクスペリエンスを最終的に誰もが楽しむことができるようになります。

さらに、PyTorch は優れた互換性を備えており、PyTorch1.8 ベースのモデルは、コード行を変更することなく最新バージョン 1.13 で実行できます。アルゴリズム エンジニアは最終的に自信を持ってフレームワークをアップグレードできるため、最新のフレームワーク機能とより優れたパフォーマンスを享受できます。一方で、TensorFlow に基づく一部の推奨フレームワークは、TensorFlow の特定のバージョンに依存していることが多く、たとえば、多くのチームは依然として TensorFlow 1.x に基づく内部フレームワークを使用している可能性があります。 TensorFlow 1.x は 2021 年 1 月にメンテナンスを停止しました。つまり、過去 2 年間、すべての新しいバグと新機能は十分にサポートされなくなります。使用中に発生した問題は社内のメンテナンス チームのみが修理できるため、追加コストがかかります。タイムリーなフレームワークのアップグレードにより、無料の速度向上も実現できます。PyTorch の上位バージョンは、多くの場合、CUDA の上位バージョンと一致するだけでなく、トレーニング速度をさらに向上させ、トレーニング効率を向上させる CUDA グラフなどの新機能と一致します。

アルゴリズム エンジニアに加えて、フレームワーク チームも推奨チームの重要な部分です。オープンソースフレームワークの選定後、社内のフレームワークチームが社内ニーズに基づいて二次開発を行います。彼らにとって、PyTorch の推奨フレームワークは、より合理化された開発エクスペリエンスにつながります。従来の TensorFlow 推奨フレームワークの多くは、TF サービングを模倣して C セッションに基づいた拡張機能を作成します。この設計ソリューションは当時、非常に高度なソリューションと考えられていました。しかし、これには、コードを 1 行変更するだけで TensorFlow 全体を完全にコンパイルする必要があります。非常に時間がかかり、イントラネット上で外部の依存関係をダウンロードするなどの些細な問題も解決する必要があり、開発エクスペリエンスはあまり良くありません。

PyTorch を使用する場合、そのような問題は発生しません。PyTorch は Python の哲学を核としており、誰もがそれを自由に拡張できることを望んでいるからです。二次開発を行う場合は、pybind11 などの比較的成熟した Python ライブラリでカプセル化し、ライブラリをダイナミック リンク ライブラリにパッケージ化するだけでロードできます。このようにして、全体的なコンパイル速度は当然大幅に速くなり、学習コストは大幅に低くなります。

前述したように、PyTorch は非常に優れた下位互換性を備えたフレームワークです。これにより、保守チームは複数のバージョンを保守する必要がなくなり、多くの一般的な問題を解決できます。正式なソリューションを入手できれば、全員が特殊なニーズに集中できるようになり、チームの効率が大幅に向上します。

上記はすべて、PyTorch レコメンデーション フレームワークとしての TorchRec の利点です。私たちを非常に喜ばしく思うのは、TorchRec チームが PyTorch レコメンデーションに留まらなかったことです。フレームワーク。 。彼らは既存のレコメンデーション モデルとハードウェアの特性を観察し、多くの新機能をフレームワークに追加し、TorchRec に従来のレコメンデーション フレームワークに比べて明らかなパフォーマンス上の利点を与えました。次に、GPU エンベディング、TorchRec の優れた GPU カーネル、TorchRec がネットワーク通信に基づいて実行できるエンベディング部門をいくつか選んで紹介します。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

1 つ目は GPU の組み込みです。まず、従来のレコメンデーション システムの GPU トレーニング プロセスを確認しましょう。特定のモデルを GPU ワーカーに配置し、エンベディングはリモート PS に保存されます。各反復ステップでは、まずリモート PS からパラメーターを取得し、次に GPU 上でモデルの順方向計算と逆方向計算を実行し、勾配を PS に転送して PS 上のパラメーターを更新します。

図の緑色の部分は GPU で実行される操作で、赤色の部分はネットワークまたは CPU で実行されます。 GPU はシステムの中で最も高価な部分ですが、多くの操作が GPU に配置されていないことがわかります。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

従来のプロセスでは、GPU が十分に活用されていません。同時に、ハードウェアの観点から見ると、単一の GPU カードのメモリはますます大きくなり、一部の高密度モデルでは GPU を完全に活用することはできません。NVIDIA の継続的な最適化により、NV リンクと GPU ダイレクト RDMA の相互接続も可能になりました。 -カード通信がますます速くなります。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#GPU の埋め込みは非常にシンプルなソリューションです。彼はエンベディングを直接分割して GPU 上に配置します。たとえば、1 台のマシンに 8 枚のカードがある場合、エンベディングを直接 8 つの部分に分割し、各部分をカード上に配置します。これにより、すべての操作がカード上に残ることが保証されます。 . . GPUの利用効率が大幅に向上し、トレーニング速度も質的に向上します。 GPU 上のビデオ メモリ容量不足が心配な場合は、TorchRec は、ビデオ メモリの補足としてホスト上のメモリの一部を事前に分割できる UVM もサポートしており、これにより、内部に配置できるエンベディング サイズを増やすことができます。単一のマシン。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

GPU の組み込みに加えて、TorchRec は非常に優れた GPU カーネルも実装しています。これらのカーネルは、最新のハードウェア機能と CUDA 機能を最大限に活用します。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#たとえば、エンベディング ルックアップ カーネルを実装したい場合は、大規模なエンベディングから ID に対応する一連のエンベディングを見つける必要があります。 .vector を使用すると、一般的な実装では、各 GPU スレッドに ID が割り当てられ、対応する埋め込みをそれぞれ検索できるようになります。このとき、GPU の最下層はワープに従ってスケジュールされ、ワー​​プ内の 32 スレッドが一緒にビデオ メモリの読み書きを行うことを考慮する必要があります。これは、上記の処理において、ID の読み取り時にはビデオメモリへのアクセスが継続されるものの、それ以降のコピーはランダムな読み書き状態となることを意味します。ハードウェアの場合、ランダムな読み書きではメモリ帯域を十分に活用できず、動作効率が十分ではありません。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#TorchRec は shuffle_sync のようなワープ プリミティブを使用して、ワープ内のすべてのスレッド、ラップ内の 32 のスレッドに ID をブロードキャストします。同じエンベディングを同時に処理できるため、連続的なメモリの読み取りと書き込みが実行できるため、ビデオ メモリの帯域幅利用効率が大幅に向上し、カーネルの速度が数倍向上します。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#この表は、埋め込みルックアップのパフォーマンス向上の公式テストです。ここでは Fused EBC が最適化されたカーネルであり、さまざまな設定の下で、TorchRec はネイティブの PyTorch と比較して数十倍のパフォーマンス向上があることがわかります。 TorchRec に基づいて、エンベディングが比較的小さい (128 未満) 場合、半分またはそれ以上のスレッドがアイドル状態になる可能性があることがわかりました。そこで、ワープ内のスレッドをさらにグループ化し、複数のエンベディングを同時に処理できるようにしました。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#私たちの改善により、小さな埋め込みカーネルがオンになります。 dim はさらに 10% ~ 30% 改善されました。この最適化は公式リポジトリにも組み込まれています。なお、TorchRec のカーネルは FBGEMM ライブラリに置かれているので、興味のある方は覗いてみてください。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践#最後に、TorchRec の埋め込み分割の仕組みを紹介します。前述したように、GPUエンベディングはエンベディングを分割してカード上に載せることなので、それをどのように分割するかが考慮すべき問題となります。従来、行単位と列単位という 2 つの分割の考え方があります。行単位とは、特徴量が 20,000 個ある場合、カード 1 に 0 ~ 10000 の数字が配置され、カード 2 に 10000 ~ 20000 の数字が配置されることを意味します。このようにして、トレーニングするときに、ID がカード 1 に対応する場合、次から開始します。カード1から取るとカード2に対応するのでカード2から取ります。 Row wise の問題は、最初の 10,000 番号と最後の 10,000 番号のトラフィック量に大きな差があるかどうかがわからないため、通信が不均衡になり、ネットワーク ハードウェアを十分に活用できないことです。

#カラム単位は、埋め込み長の観点から分割されます。たとえば、埋め込みの全長は 128 です。最初の 64 次元と最後の 64 次元を異なる位置に配置できます。このようにすると、通信のバランスが良くなりますが、読み取り時には、すべてのカードまたは PS と通信する必要があります。 。

分割モードの違いにより、選択にトレードオフが生じます。従来のレコメンデーション フレームワークは、デザイン内の埋め込み分割方法を修正しますが、TorchRec は、行単位、列単位、さらにはテーブル単位、データ並列などの複数の分割方法をサポートし、Planner、Estimator、PerfModel などのモジュールやその他のモジュールを内部で自動的に提供します。帯域幅、ビデオメモリ、メモリ、モデルサイズ、および使用シナリオのその他のパラメータに基づいて分割方法を計算します。このようにして、実際のハードウェア条件に応じて最も効率的に埋め込みを分割することができ、ハードウェアを最も効率的に利用することができます。これらの関数のほとんどは Python で実装されています。これにより、社内環境に合わせてカスタマイズすることができ、社内環境に最適なレコメンドシステムを簡単に構築することができます。

2. 数百億のモデルでの実験結果

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

私たちの実験では、DeepFM や DCN などの標準モデルの場合、TorchRec は以前のベースライン推奨フレームワークと比較して、驚くべき 10 ~ 15 倍のパフォーマンス向上を示しました。このようなパフォーマンスの向上により、TorchRec をビジネスに導入する自信が得られます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

WeChat 読み取りの細かい配置モデルについては、位置合わせの精度に基づいて、実際のデータでは約 3 倍のパフォーマンス向上が見られ、偽データでは約 10 倍の向上も見られます。ここでの違いは、トレーニング用のデータの読み取りがボトルネックになっており、この点に関してはまださらなる最適化を行っていることです。

#03

##当初の計画は 1,000 億ドルまたはもっと見る 大規模モデルの欠点

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

以前に紹介したモデルは基本的に数百億以下のモデルです。 1台に収まるモデルです。 TorchRec をより大きなモデルにプッシュする際に、TorchRec のネイティブ デザインにいくつかの問題が確認されました。大規模なモデルの場合、TorchRec の純粋な GPU 埋め込みソリューションにはさらに多くのカードが必要です - おそらく 8 枚のカードの元のトレーニング速度ですべてのデータを吸収できますが、埋め込みを配置するには 16 枚のカードを使用する必要があるため、改善が困難になります。利用効率が再び低下しました。

#そして、大規模なモデル シナリオの場合、アルゴリズム チームは、1 週間アクセスされなかった ID の削除など、埋め込みのための動的な追加および削除の要件を提案することがよくあります。 。 TorchRec のソリューションはそのような機能をサポートしていません。さらに、非常に大規模なモデル ビジネスには一般に多くのチームが関与しており、基本的なフレームワークの移行には大きな抵抗が生じます。私たちに必要なのは、徐々に段階的に移行するためのサポートであり、全員が目の前の仕事を放棄することはできませんが、それはあまりにもコストがかかり、リスクが高くなります。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

上記の要件に基づいて、非常に大規模なシナリオに適応できるように、TorchRec を変更する方法を検討しました。 -スケールモデル。リモート CPU PS は非常に成熟しており、埋め込みの動的な追加を簡単にサポートできるため、超大規模トレーニングではリモート PS 接続をサポートする必要があると考えています。同時に、チーム間の協力のために、PS を使用してトレーニングと推論を分離し、段階的な移行を実現できます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#次に問題となるのは、PS をどのように導入するかです。 PS が GPU 組み込みに直接接続されている場合、各反復ステップでは引き続きリモート PS にアクセスする必要があるため、ネットワーク全体と CPU 操作の割合が増加し、GPU 使用率が低下します。

#04

WeChat チームでの動的埋め込みの問題を解決する方法

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

現時点で、単位時間あたりのデータ内の新しい ID は、実際には全体のほんの一部にすぎないことがわかりました。データ、HugeCTR が論文を発表 同様の結論についても言及されており、頻繁にアクセスされるのはごく一部の ID だけです。このことから、通常は GPU 埋め込みを使用してトレーニングを行い、表示メモリがいっぱいになったときに ID を PS にバッチで追い出すことを考えました。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

このアイデアによると、GPU 組み込みが n 個の ID しか保存できず、合計 ID が N 個である場合、あるいは無限にたくさんあります。グローバル ID は 0、1、2、3... に順番にマッピングでき、マッピング関係は ID 変換と呼ばれる構造に保存され、GPU 埋め込みで通常のトレーニングにマッピング結果を使用できるようになります。 GPU の埋め込みがいっぱいの場合、つまり ID トランスフォーマーにマッピングのペアが n 個ある場合、ID はバッチで PS に削除されます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#この設計では、PS がほとんど介入しない可能性があります。 , GPU ワーカーと PS の通信はエビクション中にのみ必要です。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

さらに、この設計では、PS は KV として使用するだけでよく、KV として使用する必要はありません。パラメータの更新をサポートするため、オプティマイザ関連の操作を実装する必要がないため、PS チームはストレージ関連の作業に集中できます。また、任意の KV ストレージを実装するプラグインもサポートしており、オープンソース バージョンには Redis プラグインが組み込まれているため、Redis を PS としても使用できます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#次に、動的埋め込みの設計の詳細をいくつか紹介します。私たちが実装した最も単純かつ基本的な ID Transformer は、実際には、PyTorch の高性能 ska:: flat_hash_map を使用してハッシュ テーブルを使用します。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

ID トランスフォーマー プロセス内の唯一の CPU 操作として、パフォーマンス要件が比較的高くなる可能性があるため、また、メモリアクセス効率をさらに向上させるために、L1キャッシュライン単位に格納する高性能バージョンも実装しました。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

また、立ち退きスキームについては、LRU と LFU を効率的に融合したいと考えています。 Redis の LFU ソリューションからインスピレーションを得て、ID アクセス頻度のインデックスのみが保存される確率的アルゴリズムを設計しました。たとえば、32 回アクセスされた場合、5 が格納されます。頻度を更新する際、再度このIDにアクセスすると5桁の乱数が生成され、5桁がすべて0、つまり1/32の確率でイベントが発生した場合、頻度指数を増加させます。 6まで。このような確率アルゴリズムにより、LRU と LFU の周波数を uint32 に入れることができ、メモリ アクセスの負荷を高めることなく LRU と LFU を統合できます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

最後に、マルチカード ソリューションを簡単に紹介しましょう。現在、すべてのカード データをカード 1 の ID Transformer に収集し、ブロードキャストで送り返しています。実装した ID Transformer は非常に高性能であり、GPU コンピューティング パイプラインと組み合わせることができるため、特定のパフォーマンスのボトルネックになることはありません。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

上記は、動的埋め込みの設計アイデアの一部です。当社の社内の兆レベルのビジネスの 1 つでは、アライメント精度の場合、動的エンベディング ソリューションは社内のオリジナル GPU Tensorflow フレームワークと比較して約 3 倍のパフォーマンス向上を実現しています。 TF 最適化バージョンと比較すると、依然として 50% 以上のパフォーマンス上の利点があります。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

最後に、皆さんにもトーチレックを試してみることをお勧めします。数百億未満の企業など、比較的小規模な企業の場合は、ネイティブの TorchRec を直接使用することをお勧めします。プラグ アンド プレイで、二次開発が不要で、パフォーマンスが 2 倍になります。非常に大規模なビジネスの場合は、TorchRec の動的エンベディングを統合してみることをお勧めします。一方で、内部 PS への接続が容易になる一方で、エンベディングの拡張と段階的な移行もサポートされます。同時に、一定のパフォーマンスの向上も得られます。

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践

#興味のある方のために、私たちが調整したいくつかの高精度モデルと既存のアプリケーション シナリオを紹介します。友達も試してみることができます。

以上がPyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践 PyTorch に基づく WeChat の大規模レコメンデーション システム トレーニングの実践 Apr 12, 2023 pm 12:13 PM

この記事では、PyTorch をベースとした WeChat の大規模レコメンデーション システム トレーニングについて紹介します。他のディープ ラーニング分野とは異なり、レコメンデーション システムは依然として Tensorflow をトレーニング フレームワークとして使用していますが、これは大多数の開発者から批判されています。 PyTorchを活用したレコメンド研修などの実践もあるが、規模が小さく、実際のビジネス検証が行われていないため、早期にビジネスを導入するのが難しい。 2022 年 2 月に、PyTorch チームは公式推奨ライブラリ TorchRec を開始しました。私たちのチームは5月に社内業務でTorchRecを試し始め、TorchRecチームとの一連の協力を開始しました。数か月にわたる試行の過程で、TorchR が次のことを発見しました。

データ不足がモデルトレーニングに及ぼす影響 データ不足がモデルトレーニングに及ぼす影響 Oct 08, 2023 pm 06:17 PM

データ不足がモデル トレーニングに与える影響には、特定のコード サンプルが必要です。機械学習と人工知能の分野では、データはモデルをトレーニングするための中核要素の 1 つです。しかし、実際に私たちがよく直面する問題はデータ不足です。データ不足とは、トレーニング データの量が不足していること、またはアノテーション付きデータが不足していることを指し、この場合、モデルのトレーニングに一定の影響を及ぼします。データ不足の問題は、主に次の側面に反映されます。 過学習: トレーニング データの量が不十分な場合、モデルは過学習する傾向があります。過学習とは、モデルがトレーニング データに過剰に適応することを指します。

Python を使用して画像上でモデルをトレーニングする方法 Python を使用して画像上でモデルをトレーニングする方法 Aug 26, 2023 pm 10:42 PM

Python を使用して画像上でモデルをトレーニングする方法の概要: コンピューター ビジョンの分野では、深層学習モデルを使用して画像の分類、ターゲット検出、その他のタスクを行うことが一般的な方法になりました。広く使用されているプログラミング言語として、Python は豊富なライブラリとツールを提供しており、画像上でモデルをトレーニングするのが比較的簡単です。この記事では、Python とその関連ライブラリを使用して画像上でモデルをトレーニングする方法と、対応するコード例を紹介します。環境の準備: 開始する前に、以下のものがインストールされていることを確認する必要があります。

深層学習モデルの学習時間の問題 深層学習モデルの学習時間の問題 Oct 09, 2023 pm 02:15 PM

深層学習モデルのトレーニング時間問題の紹介: 深層学習の発展に伴い、深層学習モデルはさまざまな分野で目覚ましい成果を上げています。ただし、深層学習モデルのトレーニング時間は一般的な問題です。大規模なデータセットと複雑なネットワーク構造の場合、深層学習モデルのトレーニング時間は大幅に増加します。この記事では、深層学習モデルのトレーニング時間の問題について説明し、具体的なコード例を示します。並列コンピューティングによりトレーニング時間が短縮される 深層学習モデルのトレーニング プロセスには、通常、大量のコンピューティング リソースと時間が必要です。トレーニングをスピードアップするために

データ拡張技術によるモデルの学習効果向上の課題 データ拡張技術によるモデルの学習効果向上の課題 Oct 10, 2023 pm 12:36 PM

データ拡張テクノロジーのモデル トレーニング効果を向上させるには、特定のコード サンプルが必要です。近年、深層学習は、コンピューター ビジョンや自然言語処理などの分野で大きな進歩を遂げています。ただし、シナリオによっては、データ拡張テクノロジーのサイズが小さいため、データセット、モデル 一般化能力と精度が満足のいくレベルに達するのは困難です。現時点では、データ拡張テクノロジーがトレーニング データセットを拡張し、モデルの一般化能力を向上させることで重要な役割を果たすことができます。データ拡張とは、元のデータに対する一連の変換と変換を指します。

[Python NLTK] テキスト分類、テキスト分類問題を簡単に解決 [Python NLTK] テキスト分類、テキスト分類問題を簡単に解決 Feb 25, 2024 am 10:16 AM

テキスト分類は、テキストを事前定義されたカテゴリに分類することを目的とした自然言語処理 (NLP) タスクの 1 つです。テキスト分類には、電子メールのフィルタリング、スパム検出、感情分析、質問応答システムなど、多くの実用的な用途があります。 pythonNLTK ライブラリを使用してテキスト分類を完了するタスクは、次の手順に分割できます。 データの前処理: まず、句読点の削除、小文字への変換、スペースの削除など、データを前処理する必要があります。特徴抽出: 次に、前処理されたテキストから特徴を抽出する必要があります。特徴は単語、語句、または文章です。モデルのトレーニング: 次に、抽出された特徴を使用して分類モデルをトレーニングする必要があります。一般的に使用される分類モデルには、Naive Bayes、サポート ベクター マシン、デシジョン ツリーなどがあります。評価: 最終

PHP マイクロサービスで分散アルゴリズムとモデル トレーニングを実装する方法 PHP マイクロサービスで分散アルゴリズムとモデル トレーニングを実装する方法 Sep 25, 2023 am 10:37 AM

PHP マイクロサービスで分散アルゴリズムとモデル トレーニングを実装する方法 はじめに: クラウド コンピューティングとビッグ データ テクノロジの急速な発展に伴い、データ処理とモデル トレーニングの需要が増加しています。分散アルゴリズムとモデルのトレーニングは、効率、速度、拡張性を達成するための鍵となります。この記事では、PHP マイクロサービスで分散アルゴリズムとモデル トレーニングを実装する方法を紹介し、いくつかの具体的なコード例を示します。 1. 分散アルゴリズムとモデル トレーニングとは何ですか? 分散アルゴリズムとモデル トレーニングは、複数のマシンまたはサーバー リソースを使用してデータ処理とモデル トレーニングを同時に実行するテクノロジーです。

Python の基礎となるテクノロジーが明らかに: モデルのトレーニングと予測を実装する方法 Python の基礎となるテクノロジーが明らかに: モデルのトレーニングと予測を実装する方法 Nov 08, 2023 pm 03:58 PM

Python の基盤テクノロジーを明らかにする: モデルのトレーニングと予測を実装する方法、具体的なコード例が必要です Python は、学びやすく使いやすいプログラミング言語として、機械学習の分野で広く使用されています。 Python は、Scikit-Learn、TensorFlow など、多数のオープンソースの機械学習ライブラリとツールを提供します。これらのオープンソース ライブラリの使用とカプセル化により、多くの利便性が提供されますが、機械学習の基礎となるテクノロジを深く理解したい場合は、これらのライブラリとツールを使用するだけでは十分ではありません。この記事ではさらに詳しく説明します

See all articles