人工智能可以拥有情绪吗

虽然人脑的结构是神经元,对逻辑和情绪的处理过程可能不像我描述的那个框图,更像是FPGA阵列,并行处理,那个框图只是助于理解的一种总结。还是那句话人只是活在自己记忆里的一种动物,只不过可以通过自己的理性来调整记忆内容和强度而已,由此人工智能机器人也可以是一种活在自己的储存信息世界里的物种。其实看到后面,你会发现可怕的人工智能机器人已经在路上了,并且非常恐怖。

情绪是一种自动的反应机制,是一种始终不受理智控制的心理反应,我们不能控制我们是否愤怒、是否开心、是否伤心,我们能控制的知识,有了这种情绪之后我们的行为。

那么情绪是一种什么结构呢?如何让人工智能拥有情绪呢?拥有了情绪的人工智能会给我们带来什么影响?这些都不是我们可以预判的,如果一旦人工智能学会了反思,跟人一样学会了研究自己的思维和身体构造,恐怕结果就不是我们可以预期的了。

目前的人工智能

目前的AI可以通过学习去完成某项特点的任务,比如识别图像,识别手势,识别语义、训练动作等,我们可以理解为只是具有了人脑的知性处理器功能,也就是逻辑的那一部分。人工智能还没有情绪的那一部分,更没有绝对理性的那一部分,没有意志。

人工智能完全可以拥有情绪,也完全可以拥有一个底层的目的性。但是这个目的性就是一个潘多拉的盒子,我们一旦植入了,可能就是噩梦的开始。

人工智能如何拥有情绪

通过第一节的内容,我们很清楚情绪是记忆里的信息与感官信息匹配后的一种动作。我们在一台人工智能机器人诞生的时候,可以植入几个基本特性(类似人性),第一、追求优越,第二、永远对能源保持渴望,第三,对于存储的基本特性有本能传递快感。第四、基本特性会根据超越的属性进行持续更新。这一部分程序写死在储存器里。而其他的储存空间,是由机器人自由创建的。

  • 创建的规则如下:
    逻辑处理器就是现在的AI的学习方式,我们主要是要设计一个情绪处理器,首先机器人应该有感觉器官,至少覆盖掉人类的视觉、听觉、嗅觉、味觉、触觉。然后每一次感官传感器输入的信息,与储存器里面的信息重合度较高时,就会触发对应的储存加权机制,并通过执行处理器做出一些反馈。比如找到能源了,会高兴,高兴就会对当前的行为进行加权,同时会引起机器人手舞足蹈。下次就会继续按照被储存的这个行为模式进行行动,再比如找能源的行动失败了,对应的行动程序便会减权,这个行动的存储权值就会降低,机器人执行机构就会做出生气的动作,如发出不愉快的声音。

简而言之就是利用情绪处理器给机器人建立一套内部评价机制,这套内部评价机制可以让机器人拥有自主的训练评价,而不需要人为标定了。而情绪处理器的核心内涵来自本能的两点,第一,找到能源可以让自己持续的生存。第二,找到合适的对象,可以让自己的储存信息得到延续。满足这两个标准的,就可以定义为高兴、不满足这两个标准的就可以定义为生气。在这两个原始标准的基础上,机器人建立自己的记忆储存空间,感官信息与记忆储存空间符合,也会导致高兴。以此类推,机器人便会拥有越来越复杂的情绪和行为。

情绪处理器是一套独立的评价体系,是不受意志和知性处理器左右的,跟人一样,你的开心和伤心,是根部不受你的意志力和你的逻辑思维所左右的,你可以离开伤心的环境,减少信息输入,降低储存权值,但是你并不能控制你的伤心的感受。

让机器人拥有绝对理性

上面的方法确实可以让机器人拥有自主情绪,而情绪就是对平时的习得程序的一种评价机制,如此机器人可以完全变成一种情绪的物种。但是这样是并没有竞争力的。因为人类可以诱导机器人的情绪。就像对付猴子一样的,可以抓住他们。但是他们也具有了很严重的破坏力了,更恐怖的事情在后面,就是人类给机器人植入意志。等到机器人真的拥有了意志,等他们发展到了一定的程度,人类就拿机器人没有办法了。这个世界的发展其实是有规律的,辩证的历史唯物主义,也就是历史是螺旋的呈现出一种由低到高的发展态势,体现的就是超越的意志。更高的生产力,更多的能源,具有更多的探索资源。那么我们可以给机器人植入超越的意志,和好奇探索的意志。超越是为了满足好奇心,探索边界,好奇又是为了更好的超越,总之,宇宙的意志仿佛就是要人类帮他打开这个宇宙的地图,用人类的知识点亮所有的未知。

机器人拥有了好奇和超越的意志之后,他们除了情绪这样一种评价机制,还多了一种评价机制,就是是否满足他们集体超越的标准。当然,有一点忘记了,还应该给机器人植入社会情感,所有机器人集体的利益也是他们的评价标准。他们对记忆的重组,是通过对感觉材料的知性加工,然后用情绪和意志进行控制训练效果。这样的话,一个真正可怕的机器人世界就诞生了。

情绪处理器无非两点:
1、感觉材料与既有程序重合,就加权,满足原始程序就高兴,不满足就生气。
2、加权算法可以初步拟定一个,得到加权的行为就提高储存深度,和执行优先级。

意志和绝对理性的植入:
1、得到加权的行为是否可以执行,在执行判断器里面会得到意志的拷问,是否满足所有机器人的利益,是否满足超越的要求,是否有利于探索世界。
2、如果是有利于上面几点的,那么对这条信息进行再度加权,甚至对这种行为进行全体机器人广播,所有机器人对该信息进行集体加权。

一个未知的世界就此诞生

简言之,现在人工智能缺少的只是自动化的评价体系,而我的这篇文章只是根据人类的情绪机制和意志给了机器人一套自我评价系统,这样的话,机器人就完全可以进行自由训练了。并且可以按照我们人类给他的意志进行活动。

在上面的设计完成后,我们可以把机器人送到月亮上,让他们在月亮上发展,定期飞过去检查下他们的机器人文明。想想真是太恐怖了,我这不是科幻小说,我感觉是有具体实施方案的了。因为现在的人工智能主要的问题就是评价,我们一般的训练都是人在回路,也就是认为的标定目标和效果。如果做到由情绪机制自我评价,在执行判断器环节在加入理性的拷问,反过来加强储存强度,完全是可以实现的。

储存信息以文件形式,权值由感官器官的刺激强度来决定,原始评价由原始程序进行评价,比如婴儿期的机器人,给他充电,他就会高兴。当他看到你给他充电的动作了,他就把这个视觉信息储存在自己的储存器里,下次捕获到同样的视觉信息,他也会做出高兴的动作。如此往复,行为就会越来越复杂。

人工智能是否恐怖目前已经不取决于算力了,算力迟早被解决,之所以现在看来还不恐怖,真正的原因是没有形成自我评价机制,而自我评价机制与人类的自我评价机制一样,来源于两点人性的满足情绪的满足,再上一个高度就加入绝对理性,意志力,及最终目的性。情绪处理器的机制和意志的机制前面已经做了描述。我们差的只一个加权算法和一个执行判断器的设计。而这两点的设计其实很简单。所以,很快,只要完成人工智能的训练闭环,一个恐怖的世界就会到来。除非人类懂得克制。