更优的ImageNet模型可迁移性更强?谷歌大脑论文给出验证
  • 《Do Better ImageNet Models Transfer Better?》

摘要:现代计算机视觉研究的一个隐含的假设是,在 ImageNet 上性能更好的模型必定在其它的视觉任务上表现得更好。然而,这个假说从来没有被系统地验证过。谷歌大脑研究者在 3 组实验环境下对比了 13 个分类模型在 12 个图像分类任务上的性能。实验结果表明,ImageNet 架构在其它数据集上的泛化能力很强,在 ImageNet 数据集上的精确率的小小的提升就能够导致在其它数据集上性能的提升,但是 ImageNet 提取出的固定特征的泛化能力小于其架构的泛化能力。

过去十年来,计算机视觉研究一直将追赶学术上用于对比的基准模型的性能作为衡量进步的标准。然而没有任何一个基准能像 ImageNet一样被如此激烈地追赶。针对这一数据集构建的网络架构,在许多方面显著促进了计算机视觉研究的进步,包括将模型迁移到新的数据集、目标检测、图像分割和图像质量评价。这一进展背后一个隐含的假设是,在 ImageNet 上性能更好的网络架构必定在其它视觉任务上表现得更好。另一个假设是,更好的网络架构能够学到更好的能在基于视觉的任务之间迁移的特征。

在本文中,研究者试图通过研究 ImageNet 特征和 ImageNet 分类架构的可迁移性来检验这些假说。具体而言,研究者在 12 个图像分类数据集上对 13 个性能最好的图像分类卷积神经网络间的迁移学习进行了大规模的研究,包含以下三种类型:固定的特征提取器,从 ImageNet 的初始化环境中进行调优,从随机初始化开始训练。

本文的主要贡献如下:
最佳的 ImageNet 模型没有给出最佳的图像特征。在 ImageNet 上训练的 ResNet 模型的特征始终优于那些在 ImageNet 上取得更高准确率的网络。

当网络经过调优后,ImageNet 的准确率是迁移任务准确率的更强有力的指标(r^2 = 0.86),目前最先进的 ImageNet 架构在许多任务中取得了最佳性能。

即使权重信息并不能在任务间很好地迁移,但是网络架构可以很好地被迁移。在 3 个小型细粒度分类数据集上,调优并不能为从随机初始化状态开始的训练提供显著的帮助,但是尽管如此,更好的 ImageNet 架构能取得更高的准确率。

摘录:https://zhuanlan.zhihu.com/p/38516287


注:博众家之所长,集群英之荟萃。