"IT有得聊”是机械工业出版社旗下IT专业资讯和服务平台,致力于帮助读者在广义的IT领域里,掌握更专业、实用的知识与技能,快速提升职场竞争力。搜索「TuringAI01」即可关注。


Alphago能否和人类比赛打扑克?未来人工智能是否会威胁人类?“生化脑”会不会是一条提升智能的捷径?_人工智能


刘云浩,ACM Fellow,IEEE Fellow,清华大学信息学院长江学者特聘教授、博士生导师,清华大学软件学院院长、清华大学信息学院副院长。

 

说明:本文参考了翟小宁和吴迪在光明社教育家上的文章;“清小华”公众号。


报告背景:中国人民大学附属中学在今年10月份组织了中小学人工智能课程建设专家座谈会,邀请了来自清华、北大、中科院、航天科技、人工智能前沿企业等十几位专家教授前来指导。在专家们的指导建议下,结合人大附中实践,从面向全体的普及教育,到部分选修的跨学科实践应用,再到少数的深入动手做研究,梳理了金字塔形的中小学“STEAM+人工智能教育”课程体系,重构了与人工智能本身感知、认知、创新三个层次相对应中小学人工智能教育课程体系。感知层,即中小学普及教育,重在培养基本的“人工智能+”思维和兴趣。这一层次具体落地于中小学信息技术课,将高质量科普资源融入日常科学课、信息课和一些选修课。把人工智能内容渗透到常规课堂的引入环节,介绍人工智能推动各学科领域发展的前沿成果,培养学生的交叉学科创新思维。我们的“STEAM+”人工智能普及教育的核心要素之一是建模仿真教育。

Alphago能否和人类比赛打扑克?未来人工智能是否会威胁人类?“生化脑”会不会是一条提升智能的捷径?_人工智能_02


11月20日,iTsinghua学堂系列巡讲活动走进人大附中,清华大学软件学院教授刘云浩为该校高一、高二年级的近千名同学作了题为《人工智能时代的新工业革命》的主题报告。报告结束后,同学们纷纷提问,希望与刘云浩教授进行深入交流。然而由于时间有限,同学们的提问并没有得到充分解答。


于是,刘云浩教授花了整整5天的时间,将现场搜集到的同学们的提问进行分类整理、详细解答,形成了一份足足2万字的文稿。目前,这份文稿已经反馈给了提问的同学。同时,他还向这些同学赠送了自己的签名书籍。


如果有长期关注公众号“清小华”的读者应该不难发现,类似的事情刘云浩教授之前也曾做过。之前参加完暑期学校的讲座之后,同学们提出的161个问题,他也以这样的方式进行了回答。因为两次回答的问题有所不同,他还特意将之前同学的提问附在后面,供人大附中的同学参考。


现将刘云浩教授的回答进行摘编,以飨读者。

Alphago能否和人类比赛打扑克?未来人工智能是否会威胁人类?“生化脑”会不会是一条提升智能的捷径?_深度学习_03

Alphago能否和人类比赛打扑克?未来人工智能是否会威胁人类?“生化脑”会不会是一条提升智能的捷径?_深度学习_04

Alphago能否和人类比赛打扑克?未来人工智能是否会威胁人类?“生化脑”会不会是一条提升智能的捷径?_深度学习_05

- 1 -

Q:

老师,我的一个思想是:人工智能或计算机的所有运动是需要一个指令的,比如需要输入“6”或按下“Enter”键。而人脑的运动同样需要一个诱因,然而这个诱因是自主观察,比如看见水烧开了,就会去提壶泡茶;或者觉得尿急了就去上厕所。是否人脑与电脑的差异有很大的原因就来源于此?(因为思维方法,就以深度思维、神经思维等技术,似乎是可以模仿的。跳跃性思维,亦可依靠巨型数据库完成。能否用物联网解决这个问题?)

——姚锦文

A:

人脑本身的机理研究还有很多没有弄清楚的地方,模仿人脑就面临很大的困难。诱因或者外界激励只是比较外围的表现。从进化论角度看,动物的存在就是来源对外界环境变化的适应。但是进化论就没有缺陷吗?也不完全是。回过头来我们大致看看AI的两个趋势:一是以计算智能为主导:深度学习其实还是在基于数据、场景、算法等端到端的框架平台上进行的强大计算;二是仿生计算或类脑计算,这里涉及更多神经科学、脑科学、心理认知学以及人因工程等。很多人以为深度学习来源于神经网络,神经网络是由于神经元的相互联结以及神经突触之间的激励传播启发而成的,但现有的深度学习框架其实是强大计算智能的体现而并非类脑科学的雏形,简言之,深度学习是一个端到端的计算框架,里面可以进行各种算法的组合,是一套模型,而不是一个单一的算法,但其中的一些核心算法比如卷积神经网络(CNN)、回复神经网络(RNN)等本身就是一种神经网络。人类的婴儿经常可以通过极少量(1-2次)的认知学习就完成对新事物的识别,但目前再强大的深度学习网络也必须经过大量数据的训练才能完成(或者仍然是部分完成)这样的任务,最终从精确度来看机器在某些领域胜过人类是毋庸置疑的,但这个过程是有本质不同的;人的组成结构是怎样?机器的组成机构呢?在这点上,“模拟”到底是从哪个层面开始,进行到哪里需要严格的界定。物联网或者说传感网就是在尝试解决感知智能问题的,但是走到认知智能,延伸到处理、决策等方面,还需要很多学科的研究协同完成。


 

- 2 -

Q:

现在像Alphago这样人工智能是完全信息,而如果像扑克牌并非双方都知道同样的信息,那么人工智能又怎么能或是否能同样比赢人类呢?它又是什么样原理呢?

——高一(16)班 李浩语

A:

围棋是完全信息动态博弈,而扑克应该属于非完全信息动态博弈。在这方面确实已经有一些相关的研究和相应的人工智能程序,并且在某些玩法上已经可以接近或者达到采用数学上的最优策略了,但玩扑克牌,对手可能会隐藏自己的真实实力,人工智能现阶段对此还难以判断,同时,优秀的人类扑克玩家都会具备一个当前计算机几乎不可能具备的技能:在现场牌局中观察并研究对手。此外也要具体看扑克的什么玩法,目前还是找零和游戏的nash,关于德扑最新的paper可以看看libratus和deepstack,基本精神还是counter factual regrets,和最近的深度学习目前关联还不多。之前的德扑大战,AI战胜了龙之队,这是一个例子。


 

- 3 -

Q:

(直接编辑脑细胞)您认为“生化脑”相比于机械结构,会不会是一条提升智能的捷径?如果直接在脑细胞的基础操作,会不会比从零开始更容易?

——高一(19)班 房家瑞

A:

这是我见过的最有想象力的提问!也确实有科学家尝试过所谓的类似的编辑尝试。目前人工智能的研究还与生物意义上的智能不同,对生物大脑的研究还处于比较初级的阶段,很难称之为捷径,而直接在脑细胞的基础上操作可能就面临着更大的困难。相比之下,我甚至觉得《攻壳机动队》这个科幻里提到的应用更近些。


 

- 4 -

Q:

我在网上看到说目前的深度学习技术其实不过是一个计算机能力更强的机器。据说百度的自动驾驶程序中存了几千个“if”,几十上百个“场景”而且人工调参在此类程序中也极为重要。您认为这种程序真的属于AI吗?您认为这种对人工十分依靠的AI真的能达到人对人工智能的预期吗?

——高一(11)班 朱家强

A:

“if…else…”难道不是人类在作出判断时的一种思维模式吗,是大家生存的必经过程,存在于我们生活的每一天。如果不依赖于人工,人工智能的算法又如何产生呢?深度学习技术中数据、场景、算法、算力都是非常重要的。在目前的应用领域必须依靠大量的数据、丰富的场景以及对网络的不断优化。人类学习的过程依赖于先天强大的基因和遗传功能加之后天习得能力,家长、老师和前辈的言传身教其实也可以看成是“人工调参”哈:)未来更多自监督学习算法的应用包括对抗式生成网络(GAN)也可能会显示出自身算法的增强性,包括增强学习和迁移学习的融入。AI与人类协同的关系应该是主旋律,至于是否依靠和依靠到什么程度要看具体的场景和条件。由于人类认知的局限性,我们很多时候根本不知道我们不知道什么。


 

- 5 -

Q:

随着人工智能的发展,人工智能可能代替人类做更多的记忆化的以及计算推理等工作,就像您提到的数学物理从某种方面来讲是记忆的工作,那么作为人类,我们是否应该减少这方面的学习,而增加人类的创造性或是更为感性的特长?还有您对于对信息领域十分感兴趣的学生发展有何建议?

——高一(14)班 孙婉婷

A:

首先学习数学物理绝非只是记忆的工作,我只是说,你想考出好的成绩,从一个学生角度来说,记忆起着重要的不可取代的作用。但是,在学习物理和数学的过程中你有很多收获,比如培养自己严谨的学习态度、培养逻辑思维、锻炼思辨能力等等。学习是相辅相成的,文理兼修与培养创造性是相得益彰的。

至于你所说“我们是否应该减少在数学物理等方面的学习”,我想说,作为学生,尤其是一个还要面临高考升学的学生,哪个都得学啊,不能偏科!!!而且我的体会是,高中的几乎所有学科都是经过多年的经验存留下来的,非常科学,有些知识即使从结果上看今后人生未必用得上,但是掌握这些知识的过程对于一个人的成长非常有益!当然,如果你确实学有余力,又希望提前打一些学习AI的基础,从目前要攻克的主要科研难点来说,你可以多学习一些数学 :)你还可以多关注信息领域最新进展,如果对哪项技术特别感兴趣,可以在条件允许的前提下尝试亲自动手实现,相信收获会更多,这方面人大附中看起来做得非常棒,你们应该可以获得这样的机会。如果想多进行相关的学习,我们在清华等你来。


 

- 6 -

Q:

有人认为几次科技界革命本质是人类生产力的大幅提升,那么如果说人工智能将带来一次革命的话,也会体现在生产力的提升上吗?那人工智能与高级机器有本质区别吗?此外对于生产力提升可能带来的社会矛盾,比如大量劳动人被替代导致的隐患,您有什么看法呢?人工智能的普及会更加深大数据影响,那么您对人工智能发展导致隐私暴露等人文方面的问题看法如何呢?

——高一(17)班朱夕禾

A:

人工智能在对人类生产力的提升上至少可以有两个角度,一是人工智能将代替人类完成一些枯燥无味的和危险的工作,机器不会像人类一样会有怠慢的情绪,也可以有更加适应环境的设计,所以能够更高效地完成工作。二是人工智能够优化资源的配置,通过人工智能的方法,对工业生产环境中产生的大数据进行分析和建模,能够实时地选择更优的资源配置方案,减少资源的浪费。人工智能和高级机器的差别在于高级机器可以算人工智能的一个重要的应用产品,比如它可以是一个非常厉害的单兵武器,像终结者或者末日机甲那样,而人工智能则是更加广泛的概念,它可能给人们看到的只是普普通通的机械臂或者传感器节点,但背后则通过了物联网和云计算的方法进行分析决策。关于劳动人被替代的问题,我觉得这在某些行业应该是必然的。比如切尔诺贝利核泄漏事件,成千上万的去做善后处理的工作人员很快都因为被辐射而牺牲了,如果高级机器或者你称为机器人也好,代替人类去清理现场保护环境不被进一步破坏,难道不好吗?

这是人类发展的大趋势,但是在实践的过程中需要进行合理的考量和部署,缓和这一现象可能引发的社会矛盾。对于同学们来说,比较现实的是现在要好好积累,提升自己的竞争力,才能保证自己不会成为时代的弃儿。隐私暴露的主要来源是移动互联网的发展,人们生活的方方面面都有手机的身影,所以很多人在不经意间就将自己的隐私信息暴露给了互联网,而人工智能则可以从海量的互联网数据中挖掘出用户的隐私信息,这使得未来隐私保护的问题会成为一个巨大的挑战。目前已经有很多的研究在考虑如何在不同的角度保护用户的隐私,可能未来需要更多的法律法规来规范互联网平台的数据保护,泄露用户的隐私也是犯罪!科技在发展,法律就要跟得上。


 

- 7 -

Q:

现在的机器学习多是有监督学习,已经解决了很多问题。那当未来无监督学习发展后,还能取得什么进展?

——高一(11)班 杜岱玮

A:

无监督学习在近年来的机器学习领域已经成为一个很火的话题,这主要得益于生成对抗神经网络(GAN)等方法的出现。生成对抗网络构建了一个有监督学习的神经网络和一个无监督的学习网络,在传统有监督学习的问题上取得了很好的结果。换句话说,未来应该就不存在严格意义的无监督学习了吧,最多是弱监督?这几年自监督学习也比较热,但仍会处于见招拆招阶段,如果这块统一了可能对目前的研究来说影响是比较大的。你的这个提问本身也令人吃惊,你居然已经关注到了这么深。这个提问会让很多人觉得自己可能是读了一个假高中。这是目前最前沿的研究点,我在讲座里曾提到明年5月19-20号在上海会有一个图灵大会,主题就是人工智能,Raj Reddy和Leslie Valiant等因人工智能方面的杰出贡献而获图灵奖的人会一起来探讨这些问题,我自己也是期待他们给出更新的视野。到时候我学习了之后再给你们介绍。


 

- 8 -

Q:

现在有许多人都对人工智能抱有恐惧态度,甚至有些人认为我们不应该发展人工智能,那么您对此有何评价?当有一天人工智能达到很高成就时,人类存在的意义又是什么呢?人工智能又是否会威胁人类?若这样的事情可能发生,我们现在又有什么预防措施呢?(主要是强人工智能)

——高一(4)班 郇梓堉

A:

人类的每一步科学发现与科技进展都可能带来恐惧。据历史记载,就连爱迪生也说过特斯拉发明了交流电会电死人而引起了人类的恐慌,爱迪生还展现了用交流电电死一只猫,此后这个恐慌瞬间就传遍了西方世界,报章上也说交流电可能会导致人类的灭绝。

从人工智能发展到强人工智能还需要很长时间,甚至永远无限接近而不能达到。当然除了技术问题,强人工智能对社会道德伦理的影响也会是人工智能到强人工智能一道不可逾越的步骤。就在我回答同学们问题的这几天内,IEEE(美国电气和电子工程师协会,与ACM国际计算机协会并称国际上最权威的两大计算机领域相关的协会)发布了他们认为人工智能或自主系统的一般原则要考虑如下三点:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。你看,我们不是就正在思考这个问题,并试图提出预防措施么。归根结底,人工智能说到底还是辅助人类满足一些特定需求,而不是为了威胁人类。


 

- 9 -

Q1:

作为一个高一学生,您觉得未来要人工智能方面研究,需要打好哪方面的基础?以及如果要进行初步自学的话,您有什么推荐的材料和学习思路、方向吗?

——高一(20)班 李佳泰

Q2:

如果我们在大学阶段准备学习与人工智能有关的学科,您认为我们在高中阶段应进行怎样的准备工作?我们应侧重哪些学科?

——高一(18)班 贾南山

A:

高中阶段的学习,显然要兼顾两件事情,一方面要为将来的学习和工作打好基础,而另一方面也要确保在高考中不失手。因此,首先各个方面的基础都要好好打一下,绝对不能偏科。在高中阶段可以尽可能地拓展自己知识的宽度以及提高自己的见识。这一点从大家的提问来看,人大附中提供了相当多的课外学习条件。此外我仍然认为你们这个年纪,该玩也还是可以玩一下,尤其是室外的各种球类活动。如果将来希望学习与计算机和人工智能相关的学科,良好的数学会让你思维更加逻辑有序(数学是目前研究AI最直接的基础),物理可以提高解决问题的深度,英语可以方便你将来查阅资料和与国际科研伙伴交流,语文能提高你的表达与理解力,历史就更重要了,不了解过去的人,怎么能看清未来?



- 10 -

Q:

现今AI算法已经融入了我们的生活,在各种网站和APP上都有智能推荐的内容,前些天《人民日报》发表了一篇文章,题目为《不要让算法决定内容》,请问您对此有何看法?我们又该如何协调算法与我们的关系?

——高一(11)班 石于飞

A:

在这个信息爆炸的时代,我们不可能去消化所有的信息,必然会有所取舍。如果没有推荐算法,可能你超过70%的时间做的都是筛选的工作,只有30%的时间才能获取自己想看的内容。而有了推荐算法之后,我们可以节省大量的时间和精力。目前大多的算法是基于大量数据做的客观推荐和决策;当前的算法也有将客观数据和主观经验有机融合的策略(AAAI 2017 best paper);前一段清华大学有一位研究人员讲了这么一个真实的例子:她是做语音识别的,在她和母亲的微信对话中,她认为文字输入更有效,可以帮她阅读信息节省很多时间,这是单纯从算法效率的角度考虑的,但事后她意识到母亲的眼睛以及年龄原因使用语音是更方便的,这也许从另一角度可以帮我们来平衡你选择算法的方式和得到的内容。从纯科研的角度上我们要思考的是如何让算法更好地为人服务,而从用户的角度上我们要思考的是如何让算法更能知晓我们的需求,作为一个有自主意识的人,能决定所选择的内容的最终应该还是每个人自己。话又说回来,你真的知道你需要什么吗?不识庐山真面目,只缘身在此山中啊。



- 11 -

Q:

人的神经元之间依赖物质传递信息,而芯片同理。故在实现人机接口后,能否以现今建造计算机的方式扩充人脑?在刘慈欣的《时间移民》中,作者构想了这样一个时代。那么我们如果真的实现了人机接口,会对社会产生何种影响?

——高一(20)班 沈嘉涵

A:

目前脑机接口的一个重要应用就是神经修复,能够使用人工装置替换掉原有功能已削弱的部分神经和感觉器官,目前尚未看到能够增强人类大脑学习能力的条件(是不是让你失望了?)。从科幻的角度探讨这个问题,显然刘慈欣比我更有发言权。作为中国成就最高的科幻作家之一(雨果奖1次,雨果奖提名1次,星云奖提名1次),刘慈欣是“一个冷漠的宇宙观察者,冷酷的道德评判者,再加上一个冷静的思想者”(何夕),经常开展科幻背景下人性思考和社会批判。《时间移民》中的社会只是他所构想的时代和社会中的一个,除了《时间移民》,《赡养人类》《三体》等其他作品也多有涉及。通常,我们会高估一项技术的短期影响,低估其长期影响。具体到人机接口技术,可能会对教育、知识的传播和发展都有重大影响,改变阶层间的流动性,从而深远地影响社会结构。有兴趣的人可以去看看《赡养人类》中所描述的二元社会结构,一个“终产者”和所有其他人,很有意思。另外你看过唐吉诃德吗?我之所以提起塞万提斯的这个著名小说,是想同时提醒你,科幻小说和科学本身的差别还是很大的。就像那些骑士小说里写的,一个骑士在一个桥上扛住了成千上万的敌人,也不是在真正的历史上可以轻易发生的。



- 12 -

Q:

您认为人工智能的限制是否受制于现在人对于大脑不完全的了解?比如说,现在的图像识别包括自动驾驶、人脸识别能都基于摄像机获取的像素。我们现在没有掌握直接获取矢量物体的能力(以像素取代之),因为我们不了解人是如何直接“看出”物体是物体而非像素的,所以您认为现在的瓶颈是否就是人对大脑的不完全了解?

——高一(3)班 吴硕

A:

非常认同你的说法,更确切的说不是不完全了解,而是几乎可以算完全不了解。一方面我们在试图不断了解人脑的运作方式、解释我们是如何理解一个事物或者事件的,另一方面,我们也在试图让计算机通过“自己”的方式来认识和了解这些事物。但你这里谈到直接获取矢量物体的能力,应该说人也并非直接看出矢量化的物体,而是从物体在人类视网膜上投影的图像信号中分层地理解图像所表达的含义,从初级的边缘信息到高级的语义信息,视觉信息在不同的视觉皮层中逐渐传递,人脑理解的内容也越来越复杂化、抽象化。这跟我们目前使用深度学习的方法很类似,深度学习在进行图像处理中,所学习到的内容在不同深度的网络层上也是一种从初级到高级的视觉信息。但是我们对于人脑原理的了解差不多也就这些了,这和完全了解大脑的工作原理还有很远的距离。说实话,在看到这个问题的时候,我觉得我对人大附中的教学体系也肯定是完全不了解的,作为高中学生你已经触及到这么深入的内容了吗?这都是鼓励自学的结果还是开了相关的课了?估计相当多的大学生也问不出这样的问题来。



- 13 -

Q:

请问“智能”一词的定义如何解释?人工“智能”是以人的基本思想为出发做出的延伸,还是倾向于从人的行为出发的?或说“大数据分析”一类技能所需要的智力是怎样的“智能”?基于物与自然的,还是基于人与思维的?或说人所需要的符合人类生活实际的智能,可以分类、定义吗?

——高一(11)班 叶祥君

A:

智能的定义从专业的角度讲目前没有定论。当然,从字面上说,我们可以简单地理解为智慧和能力,从感觉、记忆到思维的过程称为智慧,根据智慧的结果表达出行为和语言称为能力。所以你所说的从人的基本思想出发做出的延伸应该指的是智慧,而人的行为出发指的是能力,人工智能目前对这两个方面都在进行着探索,比如Machine Learning你可以理解为智慧的方面,而机器人则可以理解为能力的方面。大数据分析的过程是对历史产生的数据进行分析挖掘,提取出有价值的信息,用于未来的判断和决策,人类成长的过程不也像是这样不断对自己接受到的信息进行分析提取存储到自己的记忆中,成为自己的智慧吗?人所需要的符合人类生活实际的智能当然是可以分类的,主要还是看我们分类的角度,从功能说,我们有可以和我们聊天的聊天机器人,有可以照顾我们生活起居的生活机器人等等。


 

- 14 -

Q:

会思考的机器可能将会先用于哪个领域?科幻里想毁灭人类的AI必然出现么?

——高一(20)班 张博睿

A:

根据目前 AI 的技术水平,AI 发展到拥有“自我思考能力”仍然需要很长的时间。想必在 AI 技术的发展过程中人类也会衍生出相应的控制方法,否则就AI也不再是“人”工智能了。因此我们一般意义上的那种AI毁灭人类的可能性我个人认为并不存在。可是如果你了解近几十年的历史,上个世纪的冷战中,就有过美苏擦枪走火险些展开互扔核弹的事情,估计一扔人类就真的灭绝了。

思考是思维的一种探索活动,源于主体对意向信息的加工。之前有人在针对不同品牌的智能手机助手做过一个小测试,他对智能助手说:我饿了。智能助手的推送结果会有几种,比如有的会说“那就去吃饭吧”,有的会说“我也饿了”,而有的则会推送最近的饭馆信息出来,从饿,“思考”到要去吃饭,从吃饭“思考”到要去饭馆,这算不算是会“思考”呢?这种例子还有不少,其实人工智能已经融入到了我们的生活中,无论你是否知晓,它都在改变着我们的生活。但是这距离所谓的自主意识,“就像天上的星星,看起来很近,其实离着好多光年”。



- 15 -

Q:

人工智能商用带来的社会冲击?人工智能带来的社会影响,比如说李开复将商业学习运用在商业之中,那么人工智能成为社会生产主体之后,会对社会有什么影响?

A:

人工智能为人所用,本质上还是为解放生产力、提升人们生活水平产生巨大的推进作用。我们的生活里其实早已充满了人工智能,比如导航软件、翻译软件、Siri等等,它所带来的社会影响其实大家也都是可以直观感受到的。人工智能能干好的事儿就让它去干吧,我们还有大把它们干不了的事儿在等着我们。至于成为主体,怎么才算主体?孟子说,劳心者治人,劳力者治于人。且抛开这话对不对,你说说怎么才算劳心怎么才算劳力呢?



- 16 -

Q:

正如您所说,人工智能将在未来更大规模的使用。未来是否会有机器取代人类工作,进而导致大规模失业?您认为将会在多久之后出现?那时人类又将如何处理,面对这一问题?

——高一(20)班 黄亦宸

A:

未来必然会在有些场合中出现机器取代人类工作(其实这样的取代在前几次工业革命时期显著地发生过),但是这并不一定意味着会出现大规模失业。随着社会的进步与发展,有些职业会渐渐去人工化,但是也有新的职业需求会被挖掘出来。人工智能取代人类对于目前的技术水平言之尚早,有些工作机器做的更好,更快,那就可以交给机器做,比如在危险而黑暗的煤矿中采煤,或者是清理日本福岛核泄漏现场,为什么不让机器去做,避免牺牲人的健康呢?人类可以去做一些机器做不了的事情。作为你们,与其担心多久会被机器取代进而导致失业,不如努力充实提升自己。说到底,不好好学习在什么情况下都不太好找工作:没有什么不可替代,也没有什么注定被替代。不管做什么,你得争取让自己成为不可替代的那位。



- 17 -

Q:

假如人类研究出的人工智能能自己创造人工智能,人类还能够控制人工智能吗?如果控制不住,人工智能会有什么危害吗?人工智能会成为地球的霸主吗?人工智能在未来会不会代替人类去探索宇宙,或者在地球灭亡时,代替人类在其他星球上繁衍?

——高一(11)班 林华风

A:

看到你的问题我最先想到的是人类是不是某种高级生命体派遣到地球的人工智能?美国历史频道从2009年至今一直在播出一部科幻纪录片《远古外星人》,其中就讲到也许人类就是更高级的生物派到地球上的,或者说,我们就是他们制造出来的。根据目前AI的技术水平,AI发展到拥有“自我思考能力”仍然需要很长的时间,更别说自我创造了。IEEE(美国电气和电子工程师协会)刚刚提出了一个适用于所有类型的人工智能和自主系统的一般性原则,包括:体现人权;优先考虑最大化对人类和自然环境的好处;削弱人工智能的风险和负面影响。同时,也要将人类规范和价值观嵌入AI系统中,确保其采纳、学习并遵守其所服务的社会和团体的规范和价值,包括经典的机器人三定律,有理由相信,在这些不断完善的规则保护下,人工智能不会危害人类,或者说,人类会不断制定各种规章不让人工智能危害人类。至于地球的霸主,你觉得人类现在是地球的霸主吗?

- 18 -

Q:

没听明白是如何解决“经验主义”的,且由于测不准原理并不能由一些参数算出宇宙中事情的走向,我认为XX上的定律应是贴近现实的,对与我们所隔较远的地方是否符合的XX定律纠是无关验证的。

A:

这是哲学问题了,我必须先声明我根本没有资格来回答这个问题。下面我从我的一知半解中给你分享一下我的肤浅之见,请你将来自己阅读材料和请教大师来解决疑问。从我的阅读所得来的知识告诉我,以大卫.休谟为代表的英国经验主义认为:一切认知都来自感官经验,理性总结出来的各种规律是不牢靠的。我们今天不死、明天不死、后天不死,不能归纳出永远不死,所以“实践是检验真理的唯一标准”,“没有永恒的定律”——这是唯物主义对经验主义的解读。康德哲学兼容了唯物主义与唯心主义,将真理分成两类:第一类,物质性真理,如牛顿三定律,确实符合经验主义的观点,所以随着科学的发展和进步,相对论和量子力学也在不断地修正,它们并非永恒成立;第二类,认识论真理,比如亚里士多德在《逻辑学》中总结的四大定律:同一律、排中律、充足理由律和矛盾律,这些定律是人脑思维和心灵的固有结构,只要人类存在就一直成立。我来尝试举个通俗的例子:欧式几何的几大公理并不见得永恒成立(比如黎曼几何等非欧式几何,就不遵从欧式几何的公理),但欧氏几何推导所使用的那套逻辑方法,只要人类存在就一直成立。

·━··


- 19 -

Q:

①据我所知,人工智能有穷举(或神经网络)等方式创造绘画、乐曲的能力,那么,有没有可能让人工智能创造新的程序,甚至是新的人工智能?若它真的能够做到,它是否可独立为一个物种?它与人类的关系?②在脑机交互过程中,电极可以起到一个转换信息的作用,那么,它是“意识”的延伸吗?是否有一天,计算机可以作为意识、信息的外延(不是载体)?

——高一(15)班 许晓雯

A:

(1)虽然在讲座中我提到了无限猴子定理,不过还没有看到真的这样去创作乐曲和绘画的。

目前像Prisma这种应用大多是应用transfer learning and deeplearning进行画风的转换,模拟学习已有绘画风格创造出新的作品。确实目前有自动编程的研究,不过进展不大。本质上来说,现阶段的人工智能自动编程最多还是解决“在有限时间内搜索最优解”的优化问题,距离生成超越本身的程序还有非常遥远的距离。物种是一个生物学的概念,从生物学的角度看人工智能并不能成为一个物种,它与人类的关系也是服务于人类。(2)目前来说这个想法的实现还仅存在科幻之中,而且也不能算是意识的延伸。从目前的研究水平来看不能明朗地看到这个趋势。

·━··


- 20 -

Q:

如果,科技界的发展在某种程度上会遵循“三大定律”,那CPU宽待等的增长是否会阻涉科技方面其它的发展。若这两发面是相辅相承的,那算法、速度上的精又是如何影响“意识”的呢?

——高一(12)班 骆梓叙

A:

硬件能力的增强、带宽的增加、网络价值的不断提高并不会阻碍其他方面的发展,相反,计算性能、网络性能的提升使得我们所遇到的复杂的高运算量的问题比如深度学习更为可行,网络价值的提升则意味着有更多的用户参与,能够提供更大量的数据从而也能帮助人工智能发展。随着GPU的性能变得强劲,进行深度学习训练的门槛大大降低,即使是普通人买到一块显卡,就能进行深度学习的实验,这很大程度上促进了类似深度学习这样的方法在更广泛的领域普及,对研究人工智能的帮助是巨大的。但这些因素与“意识”本身没有太大的直接关系,目前关于“意识”是如何产生的还是一个谜题,因此探讨这些因素如何影响“意识”为时尚早。如果一定要问有什么影响的话,应该是有更多的研究者开始好奇如何提升人工智能的能力,从而使机器真的获得“意识”。机器最终会拥有自我意识吗?人类希望机器最终拥有意识吗?猛拍阑干思往事,一场春梦不分明。

·━··

 

- 21 -

Q:

您认为应该怎样避免或预防人工智能出现的失误?在alphago和李世石下围棋的第四局中,alphago人工智能出现了严重失误,下出了几步明显有误的棋,那么如果人工智能在未来被用于医疗、交通等领域中,这样的失误可能导致灾难性的后果,我们该如何尽可能不让这种事出现呢?

——高一(1)班 黄志飞

A:

这个问题非常好!这是AI应用中的“关键性应用”和“非关键性应用”的问题。AlphaGo基于的深度学习技术目前在自然语言处理、计算机视觉以及语音识别等领域应用已经逐渐开始广泛起来。深度学习在这些领域的应用很多方面超过人,大家可以经常看到精度(precision)甚至达到99%以上,好了,问题就来了,这个百分之几点几在应用领域的重要性就有所区分,比如在非关键性应用,人脸识别等领域我高几个点低几个点不会有什么太严重的问题;但在关键性应用比如医疗和交通上是不容许这种失误的,人命关天;因此在不同应用领域,不同场景所用的机制和算法策略是不同的,我们不会直接照搬AlphaGo的算法过来套用在新的领域。数据、场景、算法和计算资源是缺一不可的。在医疗和交通领域,真实可靠的数据、丰富的场景加之匹配的算法和算力以及专业的行业人员的指导分析是保证这些关键性应用的王牌,目前在这些关键性应用里面其实还有更多的细分领域;比如目前的医疗领域,还不会让AI去做自主诊断和决策,在肿瘤识别和病灶边界分割方面,AI是可以极大程度降低人的主观误诊率和漏诊率并极大提升效率和降低成本的;但最终的治疗方案和签字权还在有经验的医师手中。

此外,我们在讲座中也提到人工智能鲁棒性问题。人工智能出现失误的时候,其失误显得比人的失误更“傻得多”。失误其实任何人的一生中都会有,如何能从每一次失误吸取宝贵的经验与教训,也有意义和价值。客观说,在医疗和交通等重要领域,不仅仅是机器的失误会导致灾难性的后果,人的失误同样有可能引起这些问题。我记得高中有一个全文背诵的课文,红日初升其道大光,河出伏流一泻汪洋。美哉我少年中国,与天不老,壮哉我中国少年,与国无疆。这个作者就是著名的梁启超。他是怎么去世的呢?据说是个意外,做手术的时候被后来做了国民党卫生部政务次长的协和医院一位名医,错误地切掉了好的肾,留下了本来要切掉的坏肾。这是什么样惨烈的失误?!怎么避免?

·━··


- 22 -

Q1:

霍金曾多次向人类提醒人工智能的发展将对人类产生威胁,甚至会与人类争夺生存的权利以至于人类灭绝。您对这种看法如何评论,您对人工智能与人类的关系又有哪些看法?

——高一(19)班 王一斐

Q2:

请问您对霍金“人工智能威胁论”有什么看法?是外行指导内行,是一个有价值的思考吗?还是我只知其一不知其二,不知道霍金的语境,或者不知道霍金的后半句话?

Q3:

请问您如何看待霍金的“人工智能威胁论”?还是我只知其一不知其二,不知道霍金说这话的语境,下半句话或者他更改了他的观点?

——高一(19)班 卢泓熹

A:

这个问题我回答过很多次。我觉得,作为一个科普为主的科学家,霍金有时候不关心依据何来。相比来说,霍金在科普上的成就,远高于他在科学上的成就。


·━··


- 23 -

Q:

①如果说生物是算法,人就没有了意识(意识由反应控制),那么人比人工智能的优势在哪呢,人工智能也可以通过加入反应获得意识。②人虽然在综合方面可以超过人工智能,但在某些方面不如人工智能,比如马虽然比车更能识别主人,但在驾驶方面,车比马好,故马被取代,如司机一定不如自动驾驶,人未来如何就业呢?人类(少部分人)又凭什么养活大部分无用的人呢?(问题灵感来源于《时间简史》)

——高一(17)班 陈泽禺

A:

你的问题比较人比人工智能是否存在优势的前提是:生物是算法且人工智能可以加入反应,这两个前提前者尚未证明,后者目前实现难度依然非常非常大。

我非常佩服你已经看了《时间简史》这本书。我高中的时候也就看了阿童木和机器猫,我相信很多人也都没有完整地看过《时间简史》。人类发展的过程中,职业类别一直在一边消失一边产生中,比如我小时候最兴奋的就是有个背着一个小箱子走街串巷叫卖“冰棍5分雪糕1毛”的老奶奶路过我家门口;同时职业种类的增加也是明显的,在没有计算机之前哪有码农这种高大上的工作啊:) 所以是不是可以这样预测,即使在未来,一种职业倒下去,千百种职业站起来。积极地说,天生我材必有用! (可怕的是不知道怎么用哈)我们每个人都要学会在未来的社会中找到自己发光发热的位置。倒是那些“少数人”他们凭什么认为自己“养活”着别人呢?

·━··


- 24 -

Q:

听说有人在做书法机械臂和人工智能古典诗词创作这样的项目,但这一类领域重在人类情感,您认为这类项目的意义在哪?我们应当如何根据人工智能的特点来尽可能大地发挥它的优势?

——高一(16)班 解思文

A:

在今后相当长的一段时间内模拟人的感情应该都是人工智能需要攻克的难点,而如果人工智能能够在这类对人类情感相当看重的领域做出突破性的进展,那么对于技术的发展来说还是具有相当重要的意义的。此外,借着人工智能的东风使得中国的传统文化能够多了一条被大众认识了解的途径也算是其一个隐形的好处吧。好像很早以前就有一种“藏头诗”或者“藏尾诗”的生成软件,生成的各种“藏头诗”可谓传播甚广,这其中被“黑”的最惨的应该就是李白了吧,每首藏头诗后面诗仙都得跟上一句:这真的不是我写的。AI在书法以及古诗词这方面的优势主要在于可以将已有的经验规则发挥到极致,换句话说AI写出来的字和做出来的作品从技巧上来说都不会有明显的失误,而且速度极快轻松量产;但作品呈现的情感还难以给人类共鸣。今后借助于类似GAN这样的技术,是不是可以创造出AI的风格呢?这还不知道。难度也是非常大的。从事这方面的研究意义在于,如果有一天情感的沟通gap可以被填补,那在很多心理、精神治疗领域,比如忧郁症、孤独症、自闭症以及老年人陪护、留守儿童护理方面都会产生相当的社会和文化价值。

·━··


- 25 -

Q:

有几个相对思想性的问题,我想知道您的看法(仅仅是看法就好)。关于如果大脑能被全部/大部分数据化,那么对于这个数据,是能复制还是剪切,也就是说相同的“意识体”究竟能否存在多个?意识和数据又是否能画上约等号?

——高一(17)班 沈神舟

A:

目前我们对于意识的产生和工作机理几乎一无所知,所以这个问题要等到人类理解了意识之后才能回答。不过我可以提供一些你所谓的“我的看法”。我认识一个人,他做了大脑的手术,切除了相当一部分大脑,神奇的是,这个人居然没有损失任何机能。是不是变笨了?我不知道。但是并没有直接失去某些我们一眼看得到的机能。他还是原来的他吗?他自己说是。不过我们也无法验证。他是不是忘掉了一些东西?问题是我们这些没有切掉什么的人不是也天天忘掉很多吗?所以意识体能否存在多个,真的是不知道,不过意识和数据目前看来不应该画上任何意义的等号。

·━··


- 26 -

Q:

人工智能的发展方向是偏向结构的改变还是在现有基础上的工业革新?工业革新固然无法做到最后的目的,但却即时有效,在您所讲将至的第四次工业革命,人工智能的发展方向是从思维(即大的结构革新)还是从物质角度进项技术(工业)革新?我认为回答会为将来愿意从事这方面的同学有帮助。

——高一(11)班 郭骞骜

A:

广义的人工智能,其发展是多方面的,包含但不限于你所说的两个方向,随着发展,必然会产生新的方向,无论是在哪一侧面有所突破,相信都会辅助人类提高生产和生活效率。这都不是泛泛而言可以说得透彻的。千里之行,始于跬步。你所说的思维角度或者是物质角度,其实就像我们常常说到的理论和实践。目前人工智能领域无论是在基础理论还是应用实践上都取得了非常快速的发展,同样也都有非常大的发展空间。计算机科学是一门以应用驱动的科学,在第四次工业革命中,一个大的趋势是要对不同类型的海量工业数据进行融合分析建模,这即需要我们重新设计新的模型来适应新的挑战,也需要结合具体工业场景,利用人工智能的方法,进行集成创新,同学们在职业选择的时候可以结合自己的兴趣和特长进行选择。

·━··


- 27 -

Q:

您认为对于情感方面是否有人工智能的解决方案,是否会用到更加深入的数学,甚至导致产生一个新的研究方向。现在对这方面是否有大概的方向与范围?

A:

有不少相关的影视作品探讨了这个问题,比如《机器姬》、《机器管家》、《她》、《人工智能》等等。虽然目前已可以利用机器读懂人类的一些情感(比如自然语言处理中的语义情感分析或者微表情分析),但识别的准确度尚需提高。即便是机器读懂了人类的感情,机器的反应也未必是我们想象的。比如你兴奋地和你的Siri说“我考了满分!”,同时对你同桌说同样的话,究竟哪个会产生有“情感”的反应呢?从目前的技术进展看,人工智能产生情感是一件从技术上和伦理上都很难实现的事情。数学非常非常重要,只要是从事计算机(不限于)相关的工作,学好数学都是基础。

·━··


- 28 -

Q:

您对冯·诺依曼以外的结构有什么看法?做到的可能性有吗?有没有相关的研究在进行?

——高一(19)班 毛嘉琦

A:

按照我的理解,除了冯诺依曼结构之外,比较主要的还有哈佛结构,可以算是现代计算机的两个结构,两者的主要差别在于计算机的指令和数据是分开存放(哈佛结构)还是统一存放(冯诺依曼结构)。前者理论上效率更高而后者硬件实现更简单。今天的计算机结构,看起来是采用了冯诺依曼结构,但由于CPU中1级缓存的存在且分为数据缓存和指令缓存,现代计算机的效果事实上是哈佛结构。类脑计算机、量子计算机,以及其他一些非常前沿的理论研究都在试图构建新型的计算结构。据我的了解,目前在短期内能看到的成熟应用还不多。

·━··


- 29 -

Q:

我很享受您的讲座。我有一个问题想问您:现在计算机用人脑控制执行任务应该主要是依靠脑电波。那么您觉得是不是可以利用脑化学信号或其它方法呢?

——高一(18)班 韦彦浩

A:

目前主要使用脑电波的原因应该是脑电波信号要比化学信号更好捕捉和监控,而且大多数人恐怕也不喜欢把一些设备插入到自己的脑袋里面(这个时候想想那些脑科学实验的小白鼠还真是可怜)。这倒让我想起了很经典也很有年头的美剧《火星叔叔马丁》,他脑袋上的两根天线很有意思,有兴趣可以搜来看看,不过严重怀疑这部1963-1966年的美剧还能不能搜到。

·━··


- 30 -

Q:

人的认知是有局限性的,是不是就是这一点导致了人对万物现象,以至于人类自己发明的数学,计算机都有局限性?

——姚锦文

A:

毫无疑问,人的认知自然是有局限性的。人类对事物的认识都是螺旋上升的,现在所谓的公理都可能被未来的研究和发现所推翻。对科学方法和原则的追求才是指导人类进步的大方向,也是不断突破“局限性”的方法。从某些角度上讲,科研工作就是在不断地提高我们认识、理解和处理万物的能力,从而突破我们现阶段的局限性。

·━··


- 31 -

Q1:

如果人工智能有了意识,那么Ta算生命吗?现有对生命的意义还存在吗?

——高一(10)班 周子博

Q2:

人工智能的发展是否会刷新人类对“生物”的定义与认知?例如某天人工智能达到了现在的定义,现在的定义会被刷新吗?还是把这个人工智能也看作“生物”?

A:

有人认为,广义的生命泛指变化和运动,狭义的生命指有机生物体,狭义的生命只是广义生命中的一种类型。从广义的角度说,一切都是有生命的,都在变化和运动,宇宙中的万事万物都具有生命,它包括生物、非生物和意识,也包括人类的和非人类的,还包括不同空间的生命。意识,从字面上讲,意,是自我的意思;识,就是认知,认识。有“识”,才能“意”,而如何让人工智能做到“识”,本身已经是一个极复杂的过程。举个简单的例子,我们现在手机上都有天气预报,里面会告诉你明天要穿什么样的衣服,有没有雨,有没有风,这些简单的文字后面是对通过成千上百的传感器采集到数据进行分析的基础上计算得出的结论,而这些传感器如何布置、如何把数据传送回来供分析,也是一个庞大而复杂的过程。

·━··


- 32 -

Q:

①能否预言关于人工智能的自我意识的产生的可能?如果是,那么它(意识)会是基于什么的?②请问图灵在六十年前作出的关于人工智能“图灵测试”以及其对于人工智能的预言对如今的人工智能有何意思?

A:

关于预言未来,我一向认为是危险的。应该说目前机器不具备而人类一般意义上所理解的“意识”,做到保存可能要比做到产生更有可能性,这至少是一个艰巨且漫长的过程。就“意识”本身而言,已经不是计算机问题,而是哲学层面的问题了。

1950年图灵的论文至今都对AI有着深远的影响,图灵提出关于机器思维的问题,他的论文“计算机和智能(Computing machinery andintelligence),引起了广泛的注意和深远的影响。去年很火的GAN就有一点这样的味道,提出了机器的所谓自我学习与自我觉醒。在提出图灵测试后,图灵还给出了自己的预测:“我相信在 50 年左右的时间内,计算机编程技术将可能…… 实现可以顺利通过模仿游戏的计算机,普通询问者在经过5分钟询问之后的判断准确率将不高于70%。”但其实即使到了现在,也就是图灵测试提出67年后,我们依然距离这个标准有很大的差距。

·━··


- 33 -

 Q:

刘教授好,我在追一个美剧,叫做《指定幸存者》。其中一集,总统为了处理国家间矛盾而禁止了一家企业在外国使用人工智能来代替人,来创造更多的就业岗位。有一些方面上人工智能的出现势必会伤害到一部分人,就像会使很多人失业。您认为在社会发展当中,我们如何才能平衡进步与传统间的矛盾?在很极端的条件下,我们是否在一个方面禁止人工智能的使用?人工智能的发展又需要什么样的道德原则?

——高一(20)班 宫昊函

A:

随着社会的进步与发展,有些职业会渐渐去人工化,但是也有新的职业需求出现。任何技术的出现和普及总是会存在一定的磨合期。无论如何,你们反正不必担心机器和你抢饭碗,而应该担心被别人抢饭碗。人与人的竞争,可能比物种之间的竞争更加残酷而真实。至于机器智能发展的道德原则,人类一直在思考和不断地完善。你也可以通过自己的努力成为对此真正有发言权的人。

·━··


- 34 -

Q1:

您有想过未来哪种算法能超越图灵机,形成真正的人工智能吗?以及图灵机的缺陷具体出现在哪里?

——高一(11)班 陈嘉禾

Q2:

您认为在现在的情况下第一次出现大规模通过图灵测试的AI会出现在图灵机上还是非图灵架构?

——高一(14)班 赵韦弘

Q3:

请问要达到想象中的人工智能——有创造力、有好奇心的“电脑。请问是应该在图灵机上加以改进,还是新创造一种更加贴近人脑思考的计算机的形态。

——高一(19)班 刘昱臣

A:

目前仍没有能完全通过图灵测试的机器,而且完全通过图灵测试仍有很长的路要走。即便是人工智能发展大跨越的2017年,依然没有达到图灵写于 1950 年的论文《计算机器与智能》当中,那个 2000 年的机器思考能力达到30% 骗过测试者这样的预测。

我觉得这个问题引发的另外一个思考是图灵机能否以贴近人脑思考的形态进行计算?如果说人脑思考的过程是一个可判定的问题,那么图灵机已经能够实现所谓的贴近人脑思考的形态,可以通过完美地模拟人脑思考的方式实现人工智能。从目前的研究现状来看,我们对人类大脑的工作原理认知还十分的有限,并不能确定人类大脑到底在以什么样的方式进行工作。所以是否要超出图灵机的范畴研究人工智能,可能还需要我们进一步地深入理解人脑的工作方式。现有阶段也存在着如类人脑计算机等非图灵机架构的研究,但是能否取得进一步的成果,还要经过时间的检验。

- 35 -

Q:

您好,您在讲座中提到了人工智能的局限性,机器人无法适应人类所适应的事物,但他们有自己独特的思考方式与行为习惯。而今后如果人工智能发展到一定程度,有了属于机器人的社会,那请问人类能否与机器人社会完好的融合?如果不能融合,我们可不可以不从计算的角度去发展人工智能,而直接从感知的角度去发展呢?

——高一(11)班 毛思达

A:

人类的发明和创造最终都是要为人类服务的,简单的说就是“人工智能为人所用”,我觉得“融入”一词可能表达的会更准确些。目前人工智能的核心仍然是计算,人工智能也很难离开计算,即便是从感知的角度去发展,也是需要通过计算实现最终目的的。属于人工智能的社会?这个从目前的发展来看,还不太可能。

看过徐克的《蜀山传》吗? “将来的事,将来再说吧”。

·━··


- 36 -

Q:

刘教授,您好!我曾读到20世纪一位计算机学家曾说:“如果机器人可以与人交谈,理解人类,便有了智能”。您觉得这个定义精确吗?

——高一(12)班 张一铭

A:

什么是“智能”?会四则计算是不是“智能”?会下棋是不是“智能”?关于什么才算智能的探讨真是从未间断过。我也没有标准答案,只能尝试和你探讨。智能从字面上说,我们可以简单地理解为智慧和能力,从感觉、记忆到思维的过程我们称为智慧,根据智慧的结果表达出行为和语言称为能力。这个定义表面上看是没有问题,但是这也并不是十分科学,理解人类这点是很难判断的,我们只能通过机器人的能力即可以与人交谈来判断,但这是否代表机器具有了理解人类的智慧呢?如果机器把历史上人们所有的对话都收集起来,做成一个数据库,机器总能在这个数据库中找到你提的问题的答案,那是否代表机器拥有了智能呢?你可以和Siri或者Cortana聊聊天,它们也会和你“互动”,但我觉得还不能说它们是真正智能的。所以能交谈,也未必代表有了智能吧。

·━··


- 37 -

Q:

①您认为发展人工智能技术的源动力是?②人工智能未来面临的最大危机是?它的来源可能是?③如果人工智能的发展会改变社会结构、观念,而这将引起社会问题的话,是否从研究人工智能开始就应该对它进行某方面的永久抑制?

——高一(16)班 王舒桐

A:

人类的需求增长推动人工智能技术的发展,所以根本动力还是进一步发展生产力,提升人类生活质量。人工智能前景广阔,面临的问题也很多。衡量某个问题是否是“最大”的危机属于后验知识,准确来说每个挑战对于当下的人们而言都是困难的。现在所给出来的要抑制的理由大多数都还不具备足够的说服力。而且很多事情也不是简单的说抑制就能抑制的。比如说大规模的杀伤武器,谁都知道如果我们还是在冷兵器时代,地球的环境会被破坏的少得多,而核武器灭绝人类的风险要远远大于其它的东西,可是核武器因此被抑制发展了吗?

·━··


- 38 -

Q1:

如果说现在的许多智能都其实不算智能而只是输入命令编好程让它执行,那么,既然这种模式要改变。如果仿照人类的大脑来弄新型的计算机,可不可以实现类人思维?比如把人类认知的一切事物都输入这个大脑一样的计算机,可不可以通过各种复杂电路来自主思考?这样能否实现真正的智能?

——高一(15)班 雷婧伊

Q2:

模拟(编程)人的思维模式和流程是否可以达到?或者说如果可以达到,是否就达到了目前可想的AI最高水平吗?(可以造出“人”吗?)

A:

人类大脑的运行原理至今也没有很好地科学诠释,据乐观预测,也许我们会在2030年左右初步取得一些突破性的进展。随着对人类大脑科学研究的推进,人工智能也会得到进一步的提升。我觉得你这个“脑洞大开”的想法非常有意思,但把你如何思考这个问题的路径列出来,就是个问题。说个“正能量”的,据未经证实的小道消息,人类已经可以模拟扁虫的大脑了,扁虫多大呢?1毫米。它有多少神经元呢?302个。而人类则拥有1000亿个神经元,即便是人类已经可以模拟这302个神经元了,但距离模拟人脑听起来路还是非常遥远的吧。换个更积极的角度讲,你现在在上高中,等你投身这个领域的时候也许会赶上模拟大脑的好时候呢。

·━··


- 39 -

Q1:

从您的讲座中能看出人工智能在某些方面的能力是和人类互补的(如计算能力),但还有一些是与人类相长的(如正在深入发展的deep learning),那么人工智能与人类的关系究竟是并列(互补)的,即一个点上的两个分支,还是人类的深入?换句话说,人工智能是人脑延伸这句话是否完全正确?

——高一(18)班 于若彤

Q2:

人工智能最终的目的是配合人类,还是超越人类?超越人类:指用类人的思维或模拟人的思维来最终与人类达到一致和超越,可能会用类人的硬件处理,与人同质化配合人类,强化人类能力上的弱项,来达到与人类有不同能力,适应不同问题,与人异质化。

——高一(16)班 张恺熠

A:

人工智能为人所用,这是人工智能的定位,也是我们发展人工智能的最终目的。在人类最初开始做这个发明的时候,显然是大脑功能的延伸,也是希望人工智能会辅助我们发展得更快、更好。不过就像武器也是人的手脚作为攻击和防卫功能的延伸一样,几千年前的人能想象今天的核武器还是人的手脚的功能延伸吗。还有,你问我是不是完全正确,可是世上什么是完全正确的呢?至于超越人类,做个乘法20172017乘以20182018人工智能就已经完美地超越你了,你所说的超越是什么意义上的超越呢?像Matrix里演的一样把人都当电池用吗?

·━··

 

- 40 -

Q:

人类通过概率学计算得出宇宙中必然存在外星生命这个结论,但到现在为止还没有太大发现,同理在人工智能领域中,意识转换是否也可能只是在人类臆想中,却实际根本不可能达到就像您讲的鸭子的例子一样,是否可能是我们对于客观存在的事实没有探知的能力?

——高一(14)班 谢紫杉

A:

有可能,而且以目前的技术水平而言,实现意识转换言之尚早。究竟人工智能可以发展到什么地步,预测未来确实是危险的。

·━··


- 41 -

Q:

听到您把Alphago的运算方式简化到了井字棋。但是井字棋是两万多种可能,而围棋的计算量是机器也无法穷举的。Alphago研究过往棋谱,而最近的Alpha零与自己对弈,这越发逼近了人类的学习方式,甚至Alpha 零在中期棋路人类无法理解。您认为这代表机器智能可能在某些方面已超越人类吗?

——高一(6)班 王语嫣

A:

机器在某些方面确实是超越人类的,尤其是计算能力方面,可以说是完胜人类。在围棋的对弈中,很大程度考验的也是计算的能力,可能顶尖的人类棋手只能看到未来十几步的变化,alpha go则能算到未来上百步的变化,这样说人类能想到的都是局部最优的结果,而alphago则能得到全局更加优化的结果,因此alpha zero有超越人类的棋路也就理所当然了。但是目前来说alpha go, alpha zero都是属于弱人工智能,所能解决的都是十分单一的问题,但是这个世界是非常复杂的,肯定不是单纯靠运算就能独步天下。


另外,你叫王语嫣?我没看错吧!是不是Alpha零可以左右互搏搞出来青字九打还有城字十八破啊?

·━··


- 42 -

Q:

①您认为现今AI的发展状况是怎么样的?遥不可及的远景,触手可及的技术 ,还是介于两者之间?②您认为未来的AI有可能实现breakthrough么?即对已有的瓶颈进行破除?还是只可能进行已有人类思考的延拓?③您认为以现有的弗洛伊曼体系模拟出的人格是否应拥有相应的人权?(人对于机器的歧视是否可以当成是种族歧视的一种?)④您认为AI发展到了顶峰后,机器与人的竞争应该如何处理?

——高一(14)班 夏天

A:

从广义上而言,许多自动化的仪器仪表控制系统都应该算是AI,可以称得上“触手可及”。如果只是指这几年很热的深度学习一类的AI,这个方面的发展还处于初级阶段。

AI是有可能在某些方面突破人类的极限的。

机器是为人服务的,它们是帮助人们解放生产力的一种工具,和推土机锤子什么的没有本质区别,我们会歧视工具吗?此外,在某些岗位(比如简单的体力劳动)上机器的竞争力可能比人类要更高一些。但是随着AI的发展,社会各行各业也会涌现新的需求。

·━··


- 43 -

Q1:

历代哲学先辈都难以对人的存在和认知达成共识,那么我们是否对人工智能的意义与性质达成了一个共识?如果能,我们对它做出的思考会止于哪里?如果不能,人工智能是否可以“合法”地存在于世界上?(“合法”指合理与合法)

Q2:

机器深度学习+互联网使机器间交互实现=机器社会化成为必然趋势。Q:机器社会化的终点,是成为人类还是(有限)逼近人类?

——刘云川

A:

我们对人工智能的共同理解,即人工智能的理念,是让计算机像人一样思考、处理某些事,而并非全部。但是它仍然是机器,是人类的工具。对它的认识止于哪里,我们要看人工智能进化到什么地步。在情感、知识结构等方面机器仍然不能与人完全匹配,我认为机器社会化的结果是成为为人类服务的更有力的工具。再说得更直白点儿,即使一辆汽车自己就驾驶了,它也仍然是一辆汽车,而不是一个汽车“人”。

·━··


- 44 -

Q:

请问您对“脑机接口技术”中如果出现问题,那么我们如何判定这个错误是出于人还是出于机器,或者说我们如何判定通过脑机接口技术表达出的观点是来自于人还是来自于机器(如霍金的阴谋论)。例如以下这个情景:一个实验者佩戴机械臂伤害了他人,但我们并不清楚这究竟是他有意为之或只是机器计算错误。那么从法律上应如何裁定之呢?

——高一(20)班 宗孚耕

A:

脑机接口如何实现仍是一个极为复杂的问题,但是其实你所问的场景也不那么特别。比如你驾驶一辆汽车,到底是那个瞬间车子失控撞坏了人家的车子,还是你主动去撞的,其实并不难判别。我们有理由相信,在这项技术发展的过程中,会有更多的机构参与进来,进行相关的法律法规制定

·━··


- 45 -

Q:

非常荣幸,今天能够来听您演讲。可能有点跑题。人是由(或者万物)均是由原子组成的,原子组成分子,分子间互相反应作用……还有一系列的关联之后,构成了人的大脑。所以本质上是否可以理解为人的大脑也是一种物质性的复杂系统,那么某种意义上,它的作用方式是与计算机相同的。那么基于此,人类所具有的自我意识到底是怎样产生的?计算机与人之间存在的是质的区别还是仅仅在复杂度上的区别,而自我意识是否被过度神化了?

——高一(19)班 李宸玥

A:

在人类的知识库中,对于意识的产生和存在依然是谜。问题远远不是我们直接想象的那么简单。理论上说,都是物质组成的,我们应该可以复制。但是越研究我们就越发现人体的复杂远远超过我们目前为止的认知!什么时候能有本质性突破呢?真的不敢随便预言。

·━··


- 46 -

Q:

①您认为图灵测试在何时能够实现?现在通过的主要瓶颈在哪?②看您之前的项目与大数据有一定的联系,您对大数据和人工智能的关系有何看法?③互联网因为需要联通更快设备,有TCP/IP等协议,您认为物联网中是否有类似的需要?④您认为如果图灵测试能够通过的话,用何技术能够区别人和机器?⑤您认为目前解决人工智能的瓶颈,改变计算机架构与数法架构何者更重要?

——高三(8)班 王照涵

A:

(1)实现能通过图灵测试的机器目前来看还有相当距离,当然比起产生意识来说要现实得多。其中最主要问题还是我们对人的认识还十分的粗浅,人的意识是怎么产生的,到目前为止仍然是一个谜。

(2)聪明的孩子一般记性都非常好,换句话来说,聪明孩子的脑子里是个大数据,用自己的机器学习模型训练之后就会显得特别智能。近年来,人工智能的概念火遍大江南北,其很大程度上是因为现在我们能够存储和处理大规模的数据,并且能够基于大数据学习出更加智能的模型。

(3)确实有类似的需要。为了满足不同的物联网场景,人们也设计了各种各样的网络协议和网络设备,比如蓝牙、ZigBee、NBIot等等。只是说,目前为止还没有一个像TCPIP 那样占有绝对优势的协议,或者说,是不是会有这么一个占有绝对优势的协议最终在物联网领域存在现在还不好说。

(4)对话解决不了的问题只能诉诸武力解决了吧。

(5)大松博文说,战胜自己。可是我们好像战胜不了。而且我们根本不知道为什么我们无法战胜自己。

·━··


- 47 -

Q:

您好,很高兴能有幸聆听您生动的演讲。基于您的演讲内容,我比较好奇科技及人工智能的发展走向。随着机器智能化时代的到来,越来越多的职务及人类的活动被机器替代。我疑问是您对于人类独有活动被智能逐渐替代的看法?

——高一(15)班 陈雨茜

A:

既然是人类独有了,又怎么会被替代呢?机器再聪明,也有它干不了的事儿啊。如果你只是问问我的看法,我想,应该有些危险的枯燥的辛苦的重复性强的事情,我们是特别急切地希望机器可以替代人类,比如我曾经在讲座中提到我们团队开发了全球最早的地下煤矿传感网系统。我头一天下到地下300多米的坑道里,就时时刻刻希望离开那个黑暗潮湿、粉尘弥漫且充满危险的闭塞环境了,那些工人却日以继夜地在那里工作,如果有机器能够完全代替我们采煤不是很好吗?至于说取代人类所有的工作,这个目前看来还差距很远很远,或者说按照目前的路子走下去,可能永远达不到那个点。


·━··


- 48 -

Q:

①您认为“人工智能”可以真正拥有自主意识或者做到纯粹的随机吗?②您认为图灵测试真正能达到人们期望的效果吗?有不少人认为,当AI有了通过测试的能力的时候会选择故意不通过测试,因此我们永远不能知道AI能否真正发展到这种高度。

——高一(13)班 裴雨萱

A:

目前来说,“人工智能”距离拥有自主意识还很遥远,所以很难说“人工智能”是否能真正拥有自主意识。“做到纯粹随机”我不知道你是什么意思,虽然我们调用一个简单的随机函数并不是真正的随机,但是你有很多方法可以做到机器的随机,比如抓取一个时间戳回来用之类的。话说回来,人的决定就可以做到纯粹随机吗?

可以肯定的是,未来的人工智能在计算机科学的不断发展中会变得越来越强大。当然我相信发展也是一个科学过程,毕竟到现在为止人工智能还是人在背后给机器编程序写算法。当AI具有能够通过测试却选择故意不通过测试的能力的时候,他的祖先应该是某个能够通过图灵测试却不会作弊的AI吧。

·━··

 

- 49 -

Q:

我想提的问题是:随着AI技术(包括脑机接口技术)的发展,您认为在可预见的未来,人类和机械乃至于生物和机械的区别会进一步缩小吗?另一个问题是:如果AI进化成了能自己进化自己的程度,人类的生存会因此而被威胁吗?

——高一(19)班 姬晨轩

A:

所谓“道高一尺,魔高一丈”,机械的进步又何尝不是人类的进步呢?未来AI的发展肯定会在一定的规则下发展,因此人类应该能够处理自己的生存问题。最近有一个非常流行的小视频,成千上万的小飞行器装上人脸识别系统和武器,定点攻击被选定的人或目标,看起来非常恐怖,好像人工智能就这样可以随便攻击人类了。但是大家仔细想一想,这个虽然是可以通过目前的技术实现的,可是这是不是出于这些小飞行器“自己”的意识和意愿去攻击人的呢?不是。还是人在背后控制的。本质上说最多只能算是一种非常先进的武器,甚至是大规模杀伤武器,但是和核武器也没有更多的区别。人不发出指令,这些小飞行器本身是不会形成这样的攻击的。把这个算在AI要毁灭人类的威胁上面显然是有些误导。

·━··


- 50 -

Q:

请问人工智能的发展有没有一个最终的目的?若最后人工智能真的拥有自我意识的话,是否存在科学伦理上的限制?

——高一(14)班 陈昊天

A:

为人民服务吧。当然如果最后真的拥有自我意识那肯定存在限制。其实所有很强大的技术都会要求人类重新思考伦理的问题,比如核武器、化学武器、核能、克隆等等。我记得被称为现代日本漫画鼻祖的手冢治虫就在他的作品《怪医黑杰克》当中多次探讨医学进步带来的伦理问题,你可以看看。

·━··


- 51 -

Q:

①人工智能今后的发展方向是继续按照老路研究模拟人类的大脑(感知,认知)还是创造独立的新的方向?如果是后者的话,我们更需要去解决什么问题?

②科技发展的几个定律,如摩尔定律等是否在未来的几个世纪内一直成立,我们现有的工业材料会不会有理论上的极限速度(如CPU的运行速度会不会无线推进?),我认为这会显著的影响AI未来的发展。

——高一(3)班 于宗民

A:

(1)人工智能在发展的过程中有些部分是从人类的神经科学中获得的灵感,但是也有很大一部分跟神经科学并没有太大的关系,可以说“研究模拟人类的大脑”只是目前人类大脑研究的一个分支。人工智能也不会只是依靠着模拟人类大脑这一条路走。(2)摩尔定律是50年前戈登·摩尔对芯片行业发展的语言,目前来看,芯片行业的发展已经开始低于摩尔定律的预测了。也许阻碍人工智能发展的并非完全是硬件的性能,而是我们对于人工智能模型的设计和理解。

·━··


- 52 -

Q:

刘教授,您好!听了您的讲座,我觉得好像让人工智能独立思考(可能太超前,或者是具有一些类人的思维)达到这个程度还有很远的路要走,所以就有一个大胆的猜想,会不会开辟一种区别于图灵机思想的想法理念会比较容易达到?想听听您的看法?(可能很不专业,很荒谬)

——高一(7)班 陈思坤

A:

首先你的问题很好啊,没有不专业也不荒谬。图灵机是一种抽象的计算模型。人工智能的本质目前来说还是计算, 然而将新的解决问题的方法换成可计算的模型不是一件容易的事情,更不用说开辟新的模型了。当然,你有这个想法非常好,我看你对计算机相关的科学非常感兴趣,也许通过大学系统的学习,你的这个猜想会被你自己变成现实也不是没可能的哟。来清华大学信息学院学习吧!

·━··