还是老话题,很远的未来,当科技发展到一定高度,程序代码是否可能发生自我变异,导致人类无法掌控机器的局面,甚至机器成为人类对手。这个问题听起来很幼稚,但确实是一个值得思考的问题。

我的回答:

那个优化,也是有限的程序范围内的设定,只不过是一些算法的运行结果而已。
lz的话题没啥意义,这种情况不可能发生。
换句话说,机器自我意识的产生也应该是程序模拟实现的结果,而模拟实现必须有代码运行为基础,在终结者外传sarah前传中液体机器人提到,没有机器人会违反规则,如果出现了一个可以违反规则的机器人,那将是突破。而实际上这里面模糊了运行和结果处理的边界,所有的运行错误其实也是程序范围可控的错误。
这里实际上是两个问题:
1,这是不是主观意识的结果,答案肯定是否定的,所以,违反规则的机器人是因为有违反规则的代码,对于这个机器人来说,违反规则才是它的规则。
2,这是不是程序bug或者异常导致的结果。常规来说,如果是因为异常,而程序会有两种情况:
2.1,对异常做处理了,至少捕获了,这时候往往会中断,或者引导到正确的程序路径上,行为是可控的。
2.2,对异常没有处理,这时候由于各种原因,结果是不可控的,但是由于不可控带来的行为也是不可预期的,而不可预期的行为可能有逻辑性么,也就是说,可能产生意识这样的有逻辑性的序列行为么?从概率来看,完全没有可能,或者说,这样的行为只能在很短的时间内产生反应行为,却绝对不会形成长期的行为,也就是说,这仍然不会是意识产生的结果。
好,按照墨菲定律,即使产生了,这个行为因为是不可预期的,而又必须在机器人的硬件结构支持范围内才能实现,反正我现在是设想不出来意识产生并由意识指导行为的可能。哈哈。