ホームページ > よくある問題 > alexnet ネットワーク構造の詳細な説明

alexnet ネットワーク構造の詳細な説明

(*-*)浩
リリース: 2019-10-26 15:55:09
オリジナル
12846 人が閲覧しました

2012 年に Alex によって提案された Alexnet ネットワーク構造モデルは、ニューラル ネットワークの応用にブームを引き起こし、2012 年の画像認識コンペティションで優勝し、CNN を画像分類の中核アルゴリズム モデルにしました。

alexnet ネットワーク構造の詳細な説明

AlexNet モデルは 8 つの層、5 つの畳み込み層、および 3 つの全結合層に分割されており、各畳み込み層には励起関数 RELU と局所応答正規化 (LRN) が含まれています。 ) 処理を経て、ダウンサンプリング (プール処理) が行われます。 (推奨学習: Web フロントエンド ビデオ チュートリアル )

最初の層: 畳み込み層 1、入力は 224×224×3224 \times 224 \ × 3224×224×3 画像、コンボリューション カーネルの数は 96 です。論文では、2 つの GPU はそれぞれ 48 個のカーネルを計算します。コンボリューション カーネルのサイズは 11×11×311 \times 11 \times 311×11 です。 ×3; stride = 4、stride はステップ サイズを表し、pad = 0、エッジを拡張しないことを表します;

畳み込み後のグラフィックのサイズはどれくらいですか?

wide = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>height = (224 + 2 * padding - kernel_size) / stride + 1 = 54<br/>dimention = 96<br/>
ログイン後にコピー

次に (ローカル応答の正規化) に進み、pool_size = (3, 3)、stride = 2、pad = 0 をプーリングして、最終的に畳み込みの最初の層の特徴マップを取得します

2 番目の層: 畳み込み層 2、入力は前の畳み込み層の特徴マップであり、畳み込みの数は 256 で、論文内の 2 つの GPU にはそれぞれ 128 個の畳み込み核があります。コンボリューション カーネルのサイズは次のとおりです: 5×5×485 \times 5 \times 485×5×48; パッド = 2、ストライド = 1; 次に LRN を実行し、最後に max_pooling、pool_size = (3, 3)、stride = 2;

3 番目の層: 畳み込み 3、入力は 2 番目の層の出力、畳み込みカーネルの数は 384、kernel_size = (3×3×2563 \times 3) \times 2563 ×3×256)、パディング = 1、3 番目の層は LRN とプールを実行しません

4 番目の層: Convolution 4、入力は 3 番目の層の出力です、畳み込みカーネル番号は 384、kernel_size = (3×33 \times 33×3)、padding = 1、LRN と Pool なしの 3 番目の層と同じです

5 番目の層: 畳み込み 5、入力は 4 番目の層の出力、畳み込みカーネルの数は 256、kernel_size = (3×33 \times 33×3)、パディング = 1。次に、max_pooling、pool_size = (3, 3)、stride = 2 に直接進みます。

6 番目、7 番目、8 番目の層は全結合層です、各層のニューロンの数は 4096 で、最終出力ソフトマックスは 1000 です。これは、前述したように、ImageNet コンペティションのカテゴリ数が 1000 であるためです。 RELU と Dropout は全結合層で使用されます。

以上がalexnet ネットワーク構造の詳細な説明の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート