推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

王林
リリース: 2023-04-15 08:19:03
転載
805 人が閲覧しました

条件付き GAN (cGAN) Atrous Convolution (AC) 重み付きブロック (CAW) を使用したチャネル アテンション。

この論文は、深層敵対的学習に基づく超音波画像の乳房腫瘍のセグメンテーションおよび分類手法 (cGAN AC CAW) を提案します。この論文は 2019 年に提案されましたが、当時はセグメンテーションに GAN を使用する方法を提案していました。非常に斬新なアイデアです。この論文は基本的に当時統合できた技術をすべて統合しており、非常に良い成果を上げているので非常に読み応えがあります。また論文では、典型的な敵対的損失と l1 の SSIM も提案されています。損失関数としてのノルム損失。

cGAN AC CAW を使用したセマンティック セグメンテーション

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

ジェネレーター G

ジェネレーター ネットワークにはエンコーダー部分が含まれています。 7 つの畳み込み層 (En1 ~ En7) とデコーダー: 7 つの逆畳み込み層 (Dn1 ~ Dn7)。

En3 と En4 の間に atrous コンボリューション ブロックを挿入します。拡張率 1、6、9、カーネルサイズ 3×3、ストライド 2。

En7 と Dn1 の間には、チャネル重み付け (CAW) ブロックを備えたチャネル アテンション レイヤーもあります。

CAW ブロックは、チャネル アテンション モジュール (DAN) とチャネル重み付けブロック (SENet) の集合であり、ジェネレーター ネットワークの最高レベルの機能の表現能力を高めます。

Discriminator D

これは一連の畳み込み層です。

ディスクリミネーターへの入力は、画像と腫瘍領域をマークするバイナリ マスクの連結です。

識別器の出力は、0.0 (完全に偽物) から 1.0 (本物) の範囲の値を持つ 10×10 行列です。

損失関数

ジェネレーター G の損失関数は、敵対的損失 (バイナリ クロスエントロピー損失)、学習プロセスを促進し、セグメンテーション マスク境界を改善するための l1-ノルム、SSIM 損失の 3 つの項で構成されます。形状:

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

# ここで、z は確率変数です。識別器 D の損失関数は次のとおりです。

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

分類タスクにランダム フォレストを使用します

各画像を学習済みのネットワークに入力します。ネットワークを生成します。 、腫瘍の境界を取得し、この境界から 13 の統計的特徴を計算します: フラクタル次元、欠損性、凸包、凸性、真円性、面積、周長、重心、短軸および長軸の長さ、滑らかさ、Hu モーメント (6)、および中心モーメント(順序 3 以下)

は、徹底的な特徴選択 (Exhaustive feature selected) アルゴリズムを使用して、最適な特徴セットを選択します。 EFS アルゴリズムは、フラクタル次元、隙間、凸包、重心が 4 つの最適な特徴であることを示しています。

これらの選択された特徴はランダム フォレスト分類器に入力され、良性腫瘍と悪性腫瘍を区別するように訓練されます。

結果の比較

セグメンテーション

データセットには、画像に含まれる 150 個の悪性腫瘍と 100 個の良性腫瘍が含まれています。モデルをトレーニングするために、データ セットはトレーニング セット (70%)、検証セット (10%)、およびテスト セット (20%) にランダムに分割されました。

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

このモデル (cGAN AC CAW) は、すべての指標において他のモデルよりも優れています。 Dice スコアと IoU スコアはそれぞれ 93.76% と 88.82% です。

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

FCN、SegNet、ERFNet、U-Net などのセグメンテーション ヘッドを使用したペーパー モデルの IoU と Dice の箱ひげ図比較。

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

このモデルの Dice 係数の値の範囲は 88% ~ 94%、IoU の値の範囲は 80% ~ 89% ですが、他のディープ セグメンテーション手法 FCN 、SegNet、ERFNet、および U-Net の値の範囲は大きくなります。

セグメンテーションの結果 上の図に示すように、SegNet と ERFNet は最悪の結果を生成し、多数の偽陰性領域 (赤) といくつかの偽陽性領域 (緑) が発生しました。

U-Net、DCGAN、および cGAN は良好なセグメンテーションを提供しますが、論文で提案されているモデルはより正確な乳房腫瘍境界セグメンテーションを提供します。

分類

推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類

#提案された乳房腫瘍分類法は、[9]よりも優れており、合計精度は 85% です。

以上が推奨論文: 深層敵対的学習に基づく超音波画像における乳房腫瘍のセグメンテーションと分類の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート