使用了google colaboratory的免费GPU进行训练,调整了源代码的各个参数,下面是configuration.txt文件的解析:

[data paths]

只有在修改了prepare_datasets_DRIVE.py文件之后,才能更改这些路径。

[experiment name]

为实验选择一个名称,将创建一个具有相同名称的文件夹,其中包含所有的结果和经过训练的神经网络。

[data attributes]

网络对原始完整图像的子图像(patch)进行训练,这里指定patch的维数。

[training settings]

这里可以指定:

N_subimgs:从原始完整图像中随机抽取的patch总数。这个数字必须是20的倍数,因为在20幅原始训练图像中,每幅图像都提取了相同数量的patch。

inside_FOV:如果patch必须完全在FOV中选择,请选择。如果选择了包含掩码的patch,则神经网络可以正确地学习如何排除FOV边界。然而,训练需要更多的patch。

N_epochs:训练的次数。

batch_size: 小批量的大小。

Nohup:训练期间的标准输出被重定向并保存在日志文件中。

测试的参数可以在configuration.txt文件中再次调优,特别是在[testing settings] 部分,如下所述:

[testing settings]
Unet实现图像分割(二)_C
调整各个参数之后,结果如下:
Unet实现图像分割(二)_标准输出_02
分割效果图: