U − N e t + + U-Net++ U−Net++

U-Net++是亚利桑那州立大学在读博士生周纵苇于2018年发表的论文,是以U-Net为基础进行修改的网络结构。

本篇论文的贡献主要在以下两方面:

  • 提升了精度(用了类Dense结构,用合适的层进行上卷融合)
  • 灵活的网络结构配合深监督,让参数量巨大的深度网络在可接受的精度范围内大幅度的缩减参数量。


1.视频教程:
B站、网易云课堂、腾讯课堂
2.代码地址:
Gitee
Github
3.存储地址:
Google云
百度云:
提取码:

《UNet++: A Nested U-Net Architecture for Medical Image Segmentation》
—待写
作者:Zongwei Zhou, Md Mahfuzur Rahman Siddiquee, Nima Tajbakhsh, Jianming Liang
单位:亚利桑那州立大学
发表会议及时间:
Submission history
From: Zongwei Zhou [view email]
[v1] Wed, 18 Jul 2018 04:08:21 UTC (1,166 KB)

paper:https://arxiv.org/abs/1807.10165


  • Abstract

In this paper, we present UNet++, a new, more powerful architecture for medical image segmentation.

Our architecture is essentially a deeply-supervised encoder-decoder network where the encoder and decoder sub-networks are connected through a series of nested, dense skip pathways.

The re-designed skip pathways aim at reducing the semantic gap between the feature maps of the encoder and decoder sub-networks. We argue that the optimizer would deal with an easier learning task when the feature maps from the decoder and encoder networks are semantically similar.

We have evaluated UNet++ in comparison with U-Net and wide U-Net architectures across multiple medical image segmentation tasks: nodule segmentation in the low-dose CT scans of chest, nuclei segmentation in the microscopy images, liver segmentation in abdominal CT scans, and polyp segmentation in colonoscopy videos.

Our experiments demonstrate that UNet++ with deep supervision achieves an average IoU gain of 3.9 and 3.4 points over U-Net and wide U-Net, respectively.

在本文中,我们提出了一种新的,更强大的医学图像分割体系结构UNet++。

我们的架构本质上是一个深度监督的编解码器网络,其中编解码器子网络通过一系列嵌套的密集跳过路径连接。

重新设计的跳过路径旨在减少编码器和解码器子网络的特征映射之间的语义差距。我们认为,当解码器和编码器网络的特征映射在语义上相似时,优化器将处理更容易的学习任务。

我们评估了UNet++与U-Net和wide U-Net架构的比较,比较了多个医学图像分割任务:胸部低剂量CT扫描中的结节分割、显微镜图像中的细胞核分割、腹部CT扫描中的肝脏分割和结肠镜视频中的息肉分割。

我们的实验表明,UNet++具有深度监控功能

一 论文导读

 

二 论文精读

 

U-Net++___2018_图像分割

三 代码实现

 

四 问题思索

 

五 实验参数设置

 

六 额外补充