0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

UNet++与Ronneberger的U-Net进行比较

新机器视觉 来源:新机器视觉 2023-05-31 11:36 次阅读


  导读

使用一系列的网格状的密集跳跃路径来提升分割的准确性。

在这篇文章中,我们将探索UNet++: A Nested U-Net Architecture for Medical Image Segmentation这篇文章,作者是亚利桑那州立大学的Zhou等人。本文是U-Net的延续,我们将把UNet++与Ronneberger等人的U-Net原始文章进行比较。

UNet++的目标是通过在编码器和解码器之间加入Dense block和卷积层来提高分割精度。

分割的准确性对于医学图像至关重要,因为边缘分割错误会导致不可靠的结果,从而被拒绝用于临床中。

医学成像设计的算法必须在数据样本较少的情况下实现高性能和准确性。获取这些样本图像来训练模型可能是一个消耗资源的过程,因为需要由专业人员审查的高质量、未压缩和精确注释的图像。

UNet++里有什么新东西?

下面是UNet++和U-Net架构的示意图。

1eec231a-fc80-11ed-90ce-dac502259ad0.jpg

UNet++ 在原始的U-Net上加了3个东西:

重新设计的跳跃路径(显示为绿色)

密集跳跃连接(显示为蓝色)

深度监督(显示为红色)

重新设计的跳跃路径

1efd64d6-fc80-11ed-90ce-dac502259ad0.png

在UNet++中,增加了重新设计的跳跃路径(绿色显示),以弥补编码器和解码器子路径之间的语义差别。

这些卷积层的目的是减少编码器和解码器子网络的特征映射之间的语义差距。因此,对于优化器来说,这可能是一个更直接的优化问题。

U-Net采用跳跃连接,直接连接编码器和解码器之间的特征映射,导致把语义上不相似的特征映射相融合。

然而,在UNet++中,相同dense block的前一个卷积层的输出与较低层dense block对应的上采样输出进行融合。这使得已编码特征的语义级别更接近于等待在解码器中的特征映射的语义级别,因此,当接收到语义上相似的特征映射时,优化更容易。

跳跃路径上的所有卷积层使用大小为3×3的核。

密集跳跃连接

1efd64d6-fc80-11ed-90ce-dac502259ad0.png

在UNet++中,密集跳跃连接(用蓝色显示)实现了编码器和解码器之间的跳跃路径。这些Dense blocks是受到DenseNet的启发,目的是提高分割精度和改善梯度流。

密集跳跃连接确保所有先验特征图都被累积,并通过每个跳跃路径上的dense卷积块而到达当前节点。这将在多个语义级别生成完整分辨率的特征映射。

深度监督

1f4a3b8a-fc80-11ed-90ce-dac502259ad0.png

UNet++中增加了深度监督(红色显示),通过修剪模型来调整模型的复杂性,在速度(推理时间)和性能之间实现平衡。

对于accurate模式,所有分割分支的输出进行平均。

对于fast模式,最终的分割图从分割分支之一选择。

Zhou等人进行了实验,以确定在不同剪枝水平下的最佳分割性能。使用的度量是IoU和推理时间。

他们试验了四种分割任务:a)细胞核,b)结肠息肉,c)肝脏,d)肺结节。结果如下:

1f633da6-fc80-11ed-90ce-dac502259ad0.png

L3与L4相比,平均减少了32.2%的推理时间,同时IoU略微降低了。

更激进的修剪方法,如L1和L2,可以进一步减少推理时间,但以显著的分割性能为代价。

在使用UNet++时,我们可以调整用例的层数。

在UNet++上的实验

我使用Drishti-GS数据集,这与Ronneberger等人在他们的论文中使用的不同。该数据集包含101幅视网膜图像,以及用于检测青光眼的光学disc和光学cup的mask标注。青光眼是世界上致盲的主要原因之一。50张图片用于训练,51张用于验证。

度量

我们需要一组指标来比较不同的模型,这里我们有二元交叉熵,Dice 系数和IoU。

二元交叉熵

二分类的常用度量和损失函数,用于度量误分类的概率。

我们将使用PyTorch的binary_cross_entropy_with_logits函数,与Dice系数一起作为损失函数对模型进行训练。

Dice 系数

1f8d3138-fc80-11ed-90ce-dac502259ad0.jpg

对预测值和实际值之间重叠的通用的度量。计算方法为 2 × 预测值与ground truth的重叠面积除以预测值与ground truth之和的总面积。

这个度量指标的范围在0到1之间,其中1表示完全重叠。

我使用这个度量和二元交叉熵作为训练模型的损失函数。

IoU

1faf57e0-fc80-11ed-90ce-dac502259ad0.jpg

一个简单(但有效!)的度量来计算预测的mask与ground truth mask的准确性。计算预测值与ground truth的重叠面积,并除以预测值与ground truth的并集面积。

类似于Dice系数,这个度量指标的范围是从0到1,其中0表示没有重叠,而1表示预测与地面真实之间完全重叠。

训练和结果

优化这个模型,训练50多个epoch,使用Adam优化器,学习率1e-4,学习率衰减率为没10个epochs乘以0.1, 损失函数是二元交叉熵和Dice 系数的组合。

模型在27分钟内完成了36.6M可训练参数的训练,每个epoch大约需要32秒。

1fbaa23a-fc80-11ed-90ce-dac502259ad0.png

表现最好的epoch是第45个epoch(在50个epochs中)。

二元交叉熵:0.2650

Dice系数:0.8104

IoU:0.8580

几个U-Net模型之间的指标进行比较,如下所示。

1fd1bdd0-fc80-11ed-90ce-dac502259ad0.png

测试首先通过模型处理一些没见过的样本,来预测光学disc(红色)和光学cup(黄色)。这里是UNet++和U-Net的测试结果对比。

![](Biomedical Image Segmentation UNet++.assets/1_jhyAYAhCHizWt2qkGJmkEg.jpeg)

从指标表来看,UNet++在IoU上超越U-Net,但在Dice系数上表现较差。从定性测试的结果来看,UNet++成功地对第一张图像进行了正确的分割,而U-Net做得并不好。也由于UNet++的复杂性,训练时间是U-Net的两倍。必须根据它们的数据集评估每种方法。

总结

UNet++的目标是提高分割精度,通过一系列嵌套的,密集的跳跃路径来实现。重新设计的跳跃路径使语义相似的特征映射更容易优化。密集的跳跃连接提高了分割精度,改善了梯度流。深度监督允许模型复杂性调优,以平衡速度和性能优化。

审核编辑:彭静
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    45

    文章

    3640

    浏览量

    134470
  • 训练模型
    +关注

    关注

    1

    文章

    36

    浏览量

    3817

原文标题:医学图像分割:UNet++

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    van-自然和医学图像的深度语义分割:网络结构

    :医学影像是具有多种模态的;可解释性:医生需要进一步指导病灶在哪一层,哪一层的哪个位置,分割结果能求体积么?而且U-Net在自然图像分割也取得了不错的效果。需要注意的一点:Unet融合浅层信息
    发表于 12-28 11:03

    van-自然和医学图像的深度语义分割:网络结构

    :医学影像是具有多种模态的;可解释性:医生需要进一步指导病灶在哪一层,哪一层的哪个位置,分割结果能求体积么?而且U-Net在自然图像分割也取得了不错的效果。需要注意的一点:Unet融合浅层信息
    发表于 12-28 11:06

    一种基于Deep U-Net的多任务学习框架

    U-Net进行后期处理,得到的Dice分数为0.901。这个多任务U-Net算法比其他两种算法具有更强的鲁棒性,通过与分割和相关的消融前后分类共享特征,网络被迫学习更好的表示,以获得更好的分割结果
    发表于 11-10 15:35

    CDMA网络规划覆盖分析的仿真技术

    本文针对CDMA网络覆盖的复杂特点,对网络的规划中的覆盖分析做了详细的研究,在仿真关键参数核心步骤上提出了一些新的方法,最后在U-Net仿真系统中对提出的方法进行分析比较
    发表于 08-25 13:53 3806次阅读
    CDMA网络规划覆盖分析的仿真技术

    主要语义分割网络:FCN,SegNet,U-Net以及一些半监督方法

    我们将当前分类网络(AlexNet, VGG net 和 GoogLeNet)修改为全卷积网络,通过对分割任务进行微调,将它们学习的表征转移到网络中。然后,我们定义了一种新架构,它将深的、粗糙的网络层语义信息和浅的、精细的网络层的表层信息结合起来,来生成精确的分割。
    的头像 发表于 06-03 09:53 10.6w次阅读

    图像分割的背景知识

    U-Net是一种卷积神经网络,最初是为分割生物医学图像而开发的。当它被可视化的时候,它的架构看起来像字母U,因此被命名为U-Net。其体系结构由两部分组成,左侧为收缩路径,右侧为扩展路径。收缩路径的目的是获取上下文,而扩展路径的
    的头像 发表于 12-28 14:22 2468次阅读

    基于改进U-Net网络建立HU-ResNet模型

    针对混凝土结构表观裂缝检测准确率低、细节信息丢失及精度不髙等问题,提出一种利用HU-RεsNet卷积神经网络的混凝土表观裂缝检测方法。基于改进U-Net网络建立HU- Resnet模型,采用经
    发表于 03-17 10:12 12次下载
    基于改进<b class='flag-5'>U-Net</b>网络建立HU-ResNet模型

    基于U-Net的多尺度循环卷积神经网络

    喉白斑属于癌前组织病变,准确检测该病灶对癌变预防和病变治疗至关重要,但喉镜图像中病灶边界模糊且表面反光导致其不易分割。为此,提出一种基于U-Net的多尺度循环卷积神经网络(MRU-Net)进行
    发表于 03-24 11:14 5次下载
    基于<b class='flag-5'>U-Net</b>的多尺度循环卷积神经网络

    利用变分推断进行分割置信度的预测

    在目前的文献中主要利用两种技术成功地解决了医学图像的分割问题,一种是利用全卷积网络(FCN),另一种是基于U-Net的技术。FCN体系结构的主要特点是在最后没有使用已成功用于图像分类问题的全连接层。另一方面,U-Net使用一种编码器-解码器架构,在编码器中有池化层,在解码
    的头像 发表于 03-29 13:46 1926次阅读
    利用变分推断<b class='flag-5'>进行</b>分割置信度的预测

    利用可分离残差卷积和语义补偿的U-Net裂缝分割

    坝面缺陷检测是水利枢纽安全巡检的关键环节,但复杂环境下坝面图像存在干扰噪声大和像素不均衡等冋题造成坝面裂缝难以精细分割。提出一种利用可分离残差卷积和语义补偿的U-Net裂缝分割方法。在U-Net网络
    发表于 05-24 16:40 8次下载

    基于U-net分割的遥感图像配准方法

    在利用航拍遥感图像进行土地测量与变化检测时,需要对图像进行配准处理。为实现目标区域的高精度匹配,提出一种遥感图像配准方法。对图像进行U-net分割,以适用于小样本数据集的处理,针对不同
    发表于 05-28 14:41 2次下载

    UNetUNet++:医学影像经典分割网络对比

    从技术角度来看,如果我们考虑语义分割问题,对于N×M×3(假设我们有一个RGB图像)的图像,我们希望生成对应的映射N×M×k(其中k是类的数量)。有很多架构可以解决这个问题,但在这里我想谈谈两个特定的架构,UnetUnet++
    的头像 发表于 04-25 10:38 1.4w次阅读

    UNet与HRNet碰撞会产生怎样的火花?U-HRNet不做选择

    U-Net在一定程度上缓解了上述两个问题。然而,在U-Net中,每个阶段只保留一个分辨率,不同尺度之间没有融合,只有与残差分支合并。作者认为,HRNet的最大优势是能够并行维护多尺度并始终执行多尺度融合。
    的头像 发表于 11-07 14:27 1344次阅读

    为什么需要分割?U-Net能提供什么?U-Net和自编码器的区别

    U-Net是一种卷积神经网络(CNN)方法,由Olaf Ronneberger、Phillip Fischer和Thomas Brox于2015年首次提出,它可以更好的分割生物医学图像。
    的头像 发表于 11-25 11:38 5122次阅读
    为什么需要分割?<b class='flag-5'>U-Net</b>能提供什么?<b class='flag-5'>U-Net</b>和自编码器的区别

    UNet模型属于哪种神经网络

    U-Net模型属于卷积神经网络(Convolutional Neural Network, CNN)的一种特殊形式 。它最初由德国弗莱堡大学计算机科学系的研究人员在2015年提出,专为生物医学图像
    的头像 发表于 07-24 10:59 2488次阅读