文 | 夕小瑶
编 | 兔子酱
学术站诞生
好久没有冒泡啦,大家还记得雁栖湖畔的夕小瑶吗!(划掉(*/ω\*)
趁着国庆假期,跟卖萌屋小伙伴们终于把拖延已久的《Arxiv神器》翻新了,零零星星做了几个月,最近终于看起来“像点样子”了(老泪纵横)。于是,Arxiv神器的正式版——卖萌屋学术站,正式上线啦!
顾名思义,学术站就是为学术信息而生嗒!
虽然AI行业变得越来越卷,但CV、NLP等热点方向依然在持续高速的发(灌)展(水)中,经常涌现出一些有趣的paper,可能哪天就被借鉴用于解决手上的问题了。所以入门后,养成追前沿、刷paper的习惯是非常非常必要的,无论你是在学术界还是工业界。
不过由于众所周知的某墙,以及某些不是很好用的国外服务,导致新手刷paper的效率很低,又经常分不清哪些paper(可能)含金量更高一些,哪些疑似不可靠的灌水,很容易出现费力不讨好的情况,受挫之后又开始选择咀嚼各大小媒体的论文解读了。以卖萌屋为例,虽然每周能为大家递上两三篇原创已经看起来很高产了,但是实话讲,那些我们发现的有趣的paper里,最终能呈现到粉丝面前的可能只有2~3成。毕竟,理解容易生成难哇。。。
所以本着授人以鱼不如授人以渔的想法,就跟小伙伴们把自己平时刷paper的服务努力优化了一下,开放出来啦~希望能帮到各位爱追AI前沿的小伙伴们。
地址
arxiv.xixiaoyao.cn
PS:很好记有木有!另外,建议PC端访问,刷论文更方便~移动端入口在公众号【夕小瑶的卖萌屋】底部的【小屋神器】标签页哦。
小站目标
为了方便大家更加高效便捷的获取 CV、NLP、IR 等领域的学术信息啦(后面悄咪咪观察一下,用的人多的话再考虑加研究方向)。这里的高效便捷体现在两个方面:
- 抽出来了一些paper质量相对比较高的机构名和学术会议/期刊名,如果精力有限,可以优先刷刷这些。
- 不用跟那个什么墙斗智斗勇了,访问速度很快的
话不多说,看图趴!
一篇paper录用的会议名在标题中用橙色tag标出,机构名会用蓝色tag标出。比如图里这篇《TeaForN:Teacher-Forcing with N-grams》的paper就是刚放出来的Google发表于EMNLP20的论文(快夸夸我们)
不过,这种抽取会议名和机构名置顶的做法也会导致一些公平性问题。有的好paper确实没投顶会也不是来自大厂或名校,就容易被淹没掉。我们也在努力优化中,后续会同时通过NLP和排序算法优化,以及人的力量来努力不让金子被埋没(认真脸
建议&吐槽
后台回复关键词【入群】,按提示加入学术站交(吐)流(槽)群,很懒的小伙伴也可以直接在本文评论区留言哦。