条件GAN(cGAN)+AtrousConvolution(AC)+ChannelAttentionwithWeightedBlocks(CAW)。本文提出了一种基于深度对抗学习(cGAN+AC+CAW)的超声图像乳腺肿瘤分割与分类方法。一个很新颖的想法。论文基本上综合了当时所有可以综合的技术,取得了不错的效果,非常值得一读。此外,论文还提出了一个典型的对抗损失。SSIM和l1-norm损失作为损失函数。使用cGAN+AC+CAW生成器G进行语义分割生成器网络由编码器部分组成:由七个卷积层(En1到En7)和解码器部分组成:由七个反卷积层(Dn1到Dn7)组成。在En3和En4之间插入一个空洞卷积块。扩张率为1、6和9,核大小为3×3,步幅为2。在En7和Dn1之间还有一个带有通道加权(CAW)块的通道注意层。CAW块是通道注意块(DAN)和通道加权块(SENet)的集合,它增加了生成器网络最高级别特征的表示能力。鉴别器D是一系列卷积层。鉴别器的输入是图像和标记肿瘤区域的二进制掩码的串联。鉴别器的输出是一个10×10的矩阵,其值范围从0.0(完全假的)到1.0(真实的)。损失函数生成器G的损失函数由三项组成:对抗性损失(二元交叉熵损失)、促进学习过程的l1范数和改善分割掩码边界形状的SSIM损失:其中z是一个随机变量。判别器D的损失函数为:使用随机森林进行分类任务,将每张图像输入训练好的生成网络,得到肿瘤边界,然后从边界计算出13个统计特征:分形维数、腔隙度、凸包、凸度、圆度、面积、周长、质心、短轴和长轴长度、平滑度、胡矩(6)和中心矩(3阶及以下)采用穷举特征选??择(Exhaustivefeatureselection)算法选择最优特征集。EFS算法表明,分形维数、空隙度、凸包和质心是四个最优特征。这些选定的特征被输入到随机森林分类器中,然后对其进行训练以区分良性和恶性肿瘤。结果比较分割数据集包含图像中包含的150个恶性肿瘤和100个良性肿瘤。为了训练模型,将数据集随机分为训练集(70%)、验证集(10%)和测试集(20%)。该模型(cGAN+AC+CAW)在所有指标上都优于其他模型。它的Dice和IoU得分分别为93.76%和88.82%。论文模型的IoU和Dice与FCN、SegNet、ERFNet和U-Net的箱线图进行对比。该模型的Dice系数范围为88%到94%,IoU范围为80%到89%,而其他深度分割方法FCN、SegNet、ERFNet和U-Net的范围更大。分割结果如上图所示,SegNet和ERFNet产生的结果最差,有大量的假阴性区域(红色),也有一些假阳性区域(绿色)。虽然U-Net、DCGAN和cGAN提供了良好的分割,但本文提出的模型提供了更准确的乳腺肿瘤边界分割。分类提出的乳腺肿瘤分类方法优于[9],总体准确率为85%。
