在2月24日,CVPR 2020 公布接收论文结果公布,从 6656 篇有效投稿中录取了 1470 篇论文,录取率约为 22%。昨天,CVPR Oral结果公布了。有大佬已经分享了自己的工作,本文整理了5篇已中Oral的论文,分享给大家阅读。
1.PolarMask: 一阶段实例分割新思路[1,2]
论文地址:https://arxiv.org/abs/1909.13226
代码:https://github.com/xieenze/PolarMask
来自作者本人的详细解读:PolarMask: 一阶段实例分割新思路
PolarMask基于FCOS,把实例分割统一到了FCN的框架下。FCOS本质上是一种FCN的dense prediction的检测框架,可以在性能上不输anchor based的目标检测方法,让行业看到了anchor free方法的潜力。本工作最大的贡献在于:把更复杂的实例分割问题,转化成在网络设计和计算量复杂度上和物体检测一样复杂的任务,把对实例分割的建模变得简单和高效。
两种实例分割的建模方式:
实验结果:
2.Scene Graph Generation开源框架[3,4]
论文链接:https://arxiv.org/abs/2002.11949
论文代码:https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch
来自作者本人的详细解读:CVPR2020 | 最新最完善的场景图生成 (SGG)开源框架,集成目前最全metrics,已开源
本文选择2019年热门框架facebookresearch/maskrcnn-benchmark作为基础,在其基础上搭建了Scene-Graph-Benchmark.pytorch。该代码不仅兼容了maskrcnn-benchmark所支持的所有detector模型,且得益于facebookresearch优秀的代码功底,更大大增加了SGG部分的可读性和可操作性。
本文提出了一种基于因果推理的新颖SGG框架。首先为SGG建立因果图:
I: Image;X: Object Features; Z: Object Labels;Y:Predicate Logits
然后分析模型中的偏见来源。使用该图进行传统的有偏训练。作者认为,SGG中的偏见主要来源于下图右下角的那种场景,即不看具体的两个物体的状态,通过两个物体的label和一个union box的环境信息,盲猜这两个物体的relationship:
特别的是,作者使用Total Direct Effect取代单纯的网络log-likelihood,使得模型预测更有意义的relationship:
Recall:
3. Learning to Shade Hand-drawn Sketches[5]
论文地址:https://arxiv.org/abs/2002.11812
代码:https://github.com/qyzdao/ShadeSketch
本文提供了一种全自动方法,可以从成对的线描草图和照明方向生成详细而准确的艺术阴影。还提供了一个新的数据集,其中包含了用照明方向标记的成对的线描和阴影的一千个示例。值得一提的是,生成的阴影可以快速传达草绘场景的基础3D结构。因此,本文的方法产生的阴影是可以直接使用的。本文生成的阴影尊重手绘线和基础3D空间,并包含复杂且准确的细节,例如自阴影效果。此外,生成的阴影还包含艺术效果,例如边缘照明或背光产生的光晕,这也是传统3D渲染方法可以实现的。
生成的阴影手绘草图
上图:阴影系统获取线条图和照明方向标签,然后输出阴影。下图:包括三联手绘草图,阴影和照明方向在内的训练集。立方体显示记下26个照明方向的方式
4. SAM: The Sensitivity of Attribution Methods to Hyperparameters[6]
论文地址:http://s.anhnguyen.me/sam_cvpr2020.pdf
代码:https://github.com/anguyen8/sam
归因方法可以提供对分类器决策原因的有力见解。作者认为,一种解释方法的关键要求是其对输入超参数的鲁棒性,输入超参数通常是随机设置或根据经验进行调整的。对任意超参数选择的高度敏感性不仅会阻碍可重复性,而且还会影响解释的正确性。
本文中对现有归因方法的敏感性进行了透彻的实证研究,发现了一个趋势:许多方法对它们共同的超参数的变化高度敏感,例如即使更改随机种子也会产生不同的解释!有趣的是,这种敏感性没有反映在文献中通常报道的数据集的average explanation accuracy scores 中。
5.Conditional Channel Gated Networks for Task-Aware Continual Learning
参考文献
[1] https://zhuanlan.zhihu.com/p/84890413
[2] https://arxiv.org/abs/1909.13226
[3] https://zhuanlan.zhihu.com/p/109657521
[4] https://arxiv.org/abs/2002.11949
[5] https://arxiv.org/abs/2002.11812
[6] http://s.anhnguyen.me/sam_cvpr2020.pdf
上述内容,如有侵犯版权,请联系作者,会自行删文。