【新智元导读】继去年“AI寒冬论”一文引燃AI圈,作者再次重磅发文总结了这一年来人工智能的总体情况,并将AI圈形容为马戏团。吴恩达生宝宝被调侃,OpenAI和特斯遭猛怼,MIT网红研究员成年度“小丑”候选人。并发出劝告:所有AI人士赶紧寻找过冬的棉衣,或者干脆换一份工作吧!
去年,一篇AI寒冬论的文章在人工智能圈内成为爆款,文章鲜明的指出:深度学习到顶,AI寒冬将至!随即,便在AI圈引发热议。
而时隔一年,AI寒冬论作者Piekniewski如约而至,再次发布文章总结了这一年来关于人工智能的总体情况。
而此次作者抛出的观点是——AI圈就是个马戏团。
Piekniewski在这篇火力全开的文章中槽点如下:
- AI大咖们依旧非常安静;
- AI圈内年度两大骗局:OpenAI、特斯拉;
- AI年度“小丑”候选人:MIT 网红研究员 Lex Fridman。
最后,作者依旧保持“AI寒冬论”的观点:
这真的只是即将到来的AI寒冬的第一次凛冽寒风, 我建议所有AI人士赶紧寻找过冬的棉衣,或者干脆换一份工作吧。
以下是文章全文。
“AI马戏团”:序自我发布《AI寒冬将至》已经过去一年的时间了,就像我承诺的那样,我将定期发布一个关于人工智能的总体情况的更新。现在是时候发布另一篇文章了。
最近在AI圈发生了许多事情,但都没有改变我的想法——人工智能泡沫正在破裂。正如每一次泡沫破灭一样,AI正处于井喷阶段,那些最有可能一败涂地的人正拿出他们最荒唐的自信,上演一出让更天真的人为他们掏腰包的最后把戏。
且让我们看一下这段时间都发生了什么。
“AI马戏团”开场节目:大咖们都很安静首先,让我们看看那些看似并不滑稽的事情。
深度学习三位创始人,Geoffrey Hinton、Yoshua Bengio 和 Yann Lecun获得了图灵奖。如果你认为我会以某种方式质疑这件事情,那么不好意思,让你失望了,我认为深度学习获得图灵奖是实至名归。
但在我个人看来,有一件事给人留下了不好的印象,那就是Jürgen Schmidhuber缺席了此次奖项。我同意他有时候会让人感到尴尬,但他对于深度学习领域的贡献是不可否认的。
顺便说一下,所有这些家伙都很“安静”。Hinton最终确实有了自己Twitter账号,但是他属于谦虚的风格,没有发布任何我认为不真实或过于热情的推文。 Yann Lecun偶尔在FAIR推广他的研究,但这也没什么不寻常的。 同样,Bengio在社交媒体上也并不活跃。
而我最为欣赏和喜欢的一群人也比较安静。李飞飞去年秋天离开了谷歌云回到斯坦福;吴恩达异常的安静,也许是因为他最近有了一个孩子(我真诚祝贺他和他的妻子)。
我非常理解拥有孩子的幸福,因为我前两个月也有了自己的宝宝,但同时我也意识到,孩子的诞生可能或多或少的影响他每周90小时的工作时间,不可避免的延迟了人工智能奇点。
在过去几个月里,人工智能领域中最搞笑的一系列事件是围绕着Open AI和特斯拉展开的。
“AI马戏团”精彩骗局一:OpenAI不openOpenAI,一个非营利性组织,其使命是解决通用人工智能(AGI)问题并确保他们的研究成果对公众开放,而不是被一些心存恶意的公司利用。
OpenAI于今年2月发布的文本生成模型GPT-2。令所有人惊讶的是,他们并没有对此开源,理由是担心可能存在滥用,或者在研究人员和人工智能人群中引发了明显的争议。
我不确定这些家伙怎么能声称他们是“open”的,但是他们确实没有发布模型的关键部分。尽管GPT-2生成的文本看起来很合理,但我不确定人们如何能够滥用它来生成假新闻或垃圾邮件,或者真正地将其用于娱乐之外的任何事情。
无论如何,最近 OpenAI 显然已经不再开源你了,它提出了一个盈利的想法。
没错,这个组织曾被认为是十九世纪的普罗米修斯,这个由公正无私的研究人员组成的修道院正努力为整个人类提供人工智能的火焰,但现在它已经不再开放,实际上却是为了盈利。
但是,他们仍然坚持这个宏伟的使命,因为利润将受到限制——每个投资者最多只能获得成本 100 倍的回报。我能想到的唯一幕后原因是他们不能再以非营利组织的身份筹集资金了。
让我们暂时把这样一个事实放在一边,即该公司迄今为止的利润为零,而且它的结构不像任何想象中的初创企业(而是像一个研究实验室)。在采访 OpenAI 现任首席执行官Sam Altman的一篇文章中,我们发现了一些有关“炒作周期”的言论。我截取了这篇采访文章中较为精彩的部分:
例如,当被问及OpenAI计划如何赚钱(我们想知道它是否可能授权其部分工作)时,Altman回答说,“诚实的答案是,我们不知道。我们从来没有赚过钱。我们目前没有创收的计划。我们不知道有一天我们将如何产生收入。”
Altman继续说道:“我们已经向投资者做出了一个温和的承诺,‘一旦我们建立了一个通用智能系统,我们基本上会要求它为你找到一种投资回报的方式。”当观众爆发出一阵笑声(并不能马上看出他是认真的)时,Altman自己说,这听起来像是《硅谷》(Silicon Valley)中的一集,但他补充说,“你可以笑。没关系。但这是我真正相信的。”
是的。我不知道该补充些什么。我确信,计算出如何产生收入应该比计算出AGI要容易得多,但不是按照炒作泡沫的扭曲逻辑。简而言之,我的主张是:我相信我们可以建立AGI,尽管我真的没有任何证据,但我确实坚信,如果你给我们数十亿美元,我们可以做到。
我希望我也能相信这一点,但不幸的是,我不相信,我认为 OpenAI 已经变成了一个彻头彻尾的骗局。
“AI马戏团”精彩骗局二:特斯拉依旧没戏通过观察一些公开的人工智能相关用户的推文,这种判断得到了进一步的证实,例如:
Wojciech Zaremba在纽约大学(NYU)读书时是一个非常理性的人(我在2015年与他交换了几封电子邮件),现在他成了一个“信徒”。
上面的这条推文有很多错误,甚至很难想象一个对数据和现实有一定理解并且作为科学家的人都可以这样说。但这正是这些看似聪明的人在旧金山湾区回音室(echo chamber)里所相信的,而该领域成千上万的年轻大一新生也盲目追随。
具体来说:上面描述的方法(我甚至不确定“方法”到底是什么意思)可能有数百万种方法不起作用(有大量证据表明它确实不起作用)。
一个潜在的原因是:即使他们拥有所有的数据,它也很可能是有偏见的,因为人们明确地避免了边缘情况。另一个潜在的原因是:边缘情况是一个非常稀疏的集合,统计上被“非边缘情况”淹没。
在对所有数据点进行全面损失优化的同时进行深度学习,这可能会彻底消除极端情况,而且每个极端情况可能需要自己的数据再平衡/损失函数调优。
第三个原因是,假设路上有50万台特斯拉,即使他们收集了所有的驾驶数据(他们没有),如果边缘情况是长尾的话,这很可能不足以覆盖所有的边缘情况。
第四个原因是,人类在路上的一组边缘案例与AV在路上的一组边缘案例不同,而且确实在不断变化。
还有一个最不明显的原因是,他们使用的特定深度网络可能没有表达它所需要表达的东西的能力(即使假设他们拥有训练它所需的所有数据)。感知器从80年代开始就为人所知,是通用的近似器,但是它需要非常特殊的微调结构,称为convnet,以及一些技巧来提高收敛性和足够数量的可训练参数来求解ImageNet。
即使在今天,你也不能随便拿一个通用的,所有连接的多层感知器,然后期望它能学习你要求它做的任何任务。即使你有大量的数据,也需要进行大量的调优和元参数搜索才能找到解决问题的方法。
最后,即使在原则上这一切都是可行的,我们也不清楚在特斯拉内置的电脑的限制下是否可行。
其他人在AV空间塞满了汽车激光雷达,它虽然贵,但是解决了大多数的特斯拉试图通过AI解决的大部分问题(例如避障和可穿越性),完整的游戏GPU提供了比最新的Tesla硬件更多的计算能力然而根据我们的数据,很明显没有人接近完全自治。
这就是为什么特斯拉的自动驾驶方法“不一定要奏效”的几个原因。每一位称职的数据科学家在喝完一瓶伏特加后,都应该能够一口气说出这些理由。
在特斯拉“自驾日”上,有一些非常大胆的预测,比如说特斯拉将在2020年拥有100万辆自动驾驶出租车,我认为这是不可能的。我在之前曾表达过对马斯克以及他疯狂的承诺和想法的观点,我不想在这篇文章中花太多篇幅再说一遍(坦白讲,这篇文章无意吸引特斯拉的粉丝,让他们继续留在自己的幻想世界里吧)。
“AI马戏团”压轴节目:MIT网红研究员Lex Fridman荣获“年度小丑”封号但我想从另一个角度关注特斯拉,因为今年早些时候发生了一些趣事:麻省理工学院的研究科学家莱克斯·弗里德曼发表了一项研究,称使用自动驾驶仪的驾驶员仍然可以保持警惕和专心度,这一结论与之前大量研究文献的观点相悖。
该研究的发表本身就伴随着争议:首先,弗里德曼一开始找记者报道这个成果,作为新闻稿发布。一些科学家,如Nvidia的研究主管Anima Anandkumar建议他先把这项研究提交同行评审,为此,她在Twitter上被弗里德曼拉黑,而且还将每个对此研究提出批评的人都拉黑了(这个弗里德曼还真是敏感。
这个研究上了新闻后(强调一下:这是一个未经同行评审的研究),弗里德曼(其特斯拉脑残粉的身份已经公开)立即发Twitter表示,这项研究与特斯拉和马斯克本人都无关,随后他删掉了这些Twitter,又发布了一些关于研究诚信的内容(也许是因为他理所当然地认为这项研究正被质疑),而两周后,他受邀与马斯克一起上了播客,而后他自己受邀参加Joe Rogan播客。他在这两次节目上无耻地推销自己,他一直都是这么干的。
我不会在这里详细介绍论文本身的细节,但推荐各位去看看Duke Cummings的一个很棒的播客采访,他是杜克大学的人机交互教授,他详细介绍了麻省理工学院研究的多种方式,这项研究完全是有缺陷的。
尽管如此,鉴于上述所有事情,我正式将莱克斯·弗里德曼列为2019年AI领域最可笑的小丑的候选人。即使现在2019年刚刚过去不到一半,这个“小丑评选”比赛仍然开放,我觉得他的获胜机会非常大。
说到特斯拉,不久前,NTSB发布了佛罗里达州致命事故的初步报告,报告表明(毫无意外)事故确实与Autopilot有关。这至少是第四次有记录的与特斯拉自动驾驶系统相关的死亡事件,与著名的约书亚·布朗事故情况惊人相似。虽然4次这个数字从宏观角度看可能不多,但值得注意的是,凯迪拉克与特斯拉自动驾驶系统类似的ADAS系统(超级巡航系统)此文写作时还是零死亡记录(甚至没有一起事故看起来像是自驾系统故障引起的)。二者微妙的区别在于“超级巡航系统”设有驾驶员监控系统,可以确保驾驶员保持警惕,而特斯拉则没有,这一切都说明,弗里德曼的研究就是一团......那什么。
从其他新闻来看,自从我之前的关于AI的文章更新后,又有两家AI /机器人公司倒闭了,分别是Jibo和Anki。对我个人而言,Jibo是一个特别有趣的案例,因为我知道在看到他们的Indiegogo活动时,就知道这家公司最终的结局了。Jibo由MIT研究员Cynthia Breazeal创立,该项目立即获得了追捧,当时承诺实现的功能,甚至到现在根本不可能实现,最终白白烧掉了约7200万美元。
我不知道MIT到底怎么了,先是Cynthia Breazea,一位自称的机器人技术专家承诺Jibo公司能实现那些奇迹,实际上这些“奇迹”甚至在图纸上都没法实现。然后是Lex Fridman,他未经同行评议的研究把自己变成了一个小丑(虽然他以MIT的名义发表研究,但实际上他只是一名受聘的研究科学家,而不是MIT的毕业生)。
除此之外,据报道,安大略政府决定削减对AI的支出,其中包括Hinton的矢量研究所,这引起了AI界的极大愤怒。这真的只是即将到来的AI寒冬的第一次凛冽寒风,我建议所有AI人士赶紧寻找过冬的棉衣,或者干脆换一份工作吧。
写在最后:AI泡沫最终只是一个笑话如我所料,2019年年中人工智能正变得越来越荒谬,基本上成了一场小丑秀。我想我们很快就会知道,所有的AI泡沫最终只是一个笑话,这一点我从一开始就多次说过。
参考链接:
https://blog.piekniewski.info/2019/05/30/ai-circus-mid-2019-update/?nsukey=PqVoLhQM7tFhKb%2BXEtDoFoAPXTp3f9uoCiFxoxGzKT8Ai0eW7KvmVhslBlzrIqcoY2b6Wl0Vwp%2BmG85z%2BsCw714vFgLAzCRkldcJ%2Bx4m0txSe3YfL5pRpDnmJHchcLyx5MmIOWe4p1cMbseeSu6jf6jIKsrNKv7h%2B6JhE%2BrqA7%2BsA%2BCDSXbpVS0QFnNXG2oO2iLb0xgZ1m6fXswgoCXtPQ%3D%3D