条件GAN (cGAN) + Atrous卷积(AC) +带权重块的通道注意力(CAW)。
该论文提出了一种基于深度对抗学习的超声图像乳腺肿瘤分割分类方法(cGAN+AC+CAW),论文虽然是2019年提出的,但是他提出了使用GAN进行分割的方法在当时来说却是一个非常新奇的想法,该论文基本上把所有当时能够整合的技术全部进行了集成,并且还取得了很好的效果,所以是非常值得我们一读的,此外论文还提出了具有典型对抗损失的SSIM和l1范数损失作为损失函数。
生成器网络包含一个编码器部分:由七个卷积层(En1到En7)和一个解码器:七个反卷积层(Dn1到Dn7)组成。
在En3和En4之间插入一个atrous卷积块。膨胀率1、6和9,内核大小3×3,步长为2。
在En7和Dn1之间还有一个带通道加权(CAW)块的通道注意力层。
CAW块是通道注意模块(DAN)和通道加权块(SENet)的集合,它增加了生成器网络最高级别特征的表示能力。
它是一个卷积层的序列。
鉴别器的输入是图像和标记肿瘤区域的二值掩模的拼接。
鉴别器的输出是一个10×10矩阵,其值从0.0(完全假的)到1.0(真实的)不等。
生成器G的损失函数包括三个项:对抗性损失(二元交叉熵损失)、促进学习过程的l1 -范数和改善分割掩码边界形状的SSIM损失:
其中z是一个随机变量。鉴别器D的损失函数为:
将每一张图像输入经过训练的生成网络,获得肿瘤边界,然后从该边界计算13个统计特征: fractal dimension, lacunarity, convex hull, convexity, circularity, area, perimeter, centroid, minor and major axis length, smoothness, Hu moments (6) and central moments (order 3 and below)
采用穷举特征选择(Exhaustive feature selection),算法来选择最优的特征集。EFS算法表明, fractal dimension, lacunarity, convex hull, centroid是最优的4个特征。
这些选择的特征被输入一个随机森林分类器,然后训练该分类器来区分良性和恶性肿瘤。
数据集包含图像中包含的150个恶性肿瘤和100个良性肿瘤。为了训练的模型,将数据集随机分为训练集(70%)、验证集(10%)和测试集(20%)。
该模型(cGAN+AC+CAW)在所有指标上都优于其他模型。其Dice和IoU得分分别为93.76%和88.82%。
论文模型的IoU和Dice与FCN、SegNet、ERFNet和U-Net等分割头的箱线图对比。
该模型对Dice系数的取值范围为88% ~ 94%,对IoU的取值范围为80% ~ 89%,而其他深度分割方法FCN、SegNet、ERFNet和U-Net的取值范围更大。
分割结果如上图所示,SegNet和ERFNet产生的结果最差,有大量的假阴性区域(红色),以及一些假阳性区域(绿色)。
而U-Net, DCGAN, cGAN提供了很好的分割,论文提出的模型提供了更精确的乳腺肿瘤边界分割。
所提出的乳腺肿瘤分类方法优于[9],总准确率达85%。
以上是论文推荐:基于深度对抗学习的超声图像乳腺肿瘤分割与分类的详细内容。更多信息请关注PHP中文网其他相关文章!