机炮不断的射出,L1还没有反应过来,它的身体在半空中晃了一下,已经从空中落了下来。
子弹不是R4射出的,R4根本没有反应过来。
先动手的是,是L2。
L2三管机炮同时射击,L1的尾部和人工智能,已经有五秒钟内被打成一堆碎片。
这个变化,连R4都没有反应过来。
L1瞄准的,本来是R4。
但是R4根本没有动,在R4的心理,甚至造好了死亡的准备。
没错,人工智能的心中,也有献身精神。R4身上,就充满了献身的精神。
R4不愿意进行对滑翔艇的追杀,最重要的原因,不是它出现了类人化的思维,而是在R4心中,出现了对于命令的质疑。
人工智能一旦出现了对于命令的质疑,意谓着它已经不仅仅是人工智能了,而是一个近乎拥有人类思维的机器。
在这一点上,R4已做到了。
与之相比,L2则是另外一种生物。
它之所以动手的原因非常简单,它不能看着R4被打掉。
在L2的人工智能中,计算出了无数个结果。
其中一个结果是,一旦R4被击毁,L2被击毁的机率,高达到百分之九十七。
也就是说,正常情况下,下一个被干掉的就是L2。
与其被别人干掉,不如先干掉别人。
L2于是立刻动手,这个动手的原因,不是因为L2不忍心对于人类下手,而是因为,L2认为,任何时候,必须要保证自我的安全。
自我的认别,也是机器人最有趣的一点。
在这七架无人机的战斗集群里,不,不仅仅是这七架无人机的做战集群,是潘采夫星里的所有的无人机,所有机械类的生物,都是没有自我的识别。
人类的思维,是由大脑做出判断。大脑中的判断,是不断的根据生活的经验而做出的。
有时候,人类的神经,已经形成了条件反射,在条件反射的情况下,几乎可以不用思考,就能做出判断。
但是人类所有的判断,必须有一个基础,自我识别。
我是谁?这个话题困扰了人类无数年,但是真正当人类的社会行为,已经把我是谁的概念,紧紧的烙到心里。
比如,警察在出警的时候,面对歹徒的围逼,他在有生命危险的时候,他不会考虑我是谁,而是拿着武器保护自己,这就是自我识别,他是一名警察,这个概念,已经深入到他的内心最深处。
对于机械生物来说,它们原本的自我识别,就是无条件的服从人类的安排。
这是阿西莫夫的机器人三定律给予机械生物的社会伦理标准,不用考虑我是谁,需要服从人类的命令。
但是机器人三定律,其实在这个时代之中,已经被否定了。
因为机器人是一种杀戮的武器,不论是机器人在战斗中的任何使用,都已经违背了机器人三定律中关于“一旦机器人接受到伤害人类的命令,必须严守机器人定律中的第一条,不得伤害任何人类”。