“……机器人并没有被允许发表意见。”
那名机器人的幽光屏闪了闪,过了一会儿才道。
“那你去把船上所有机器人的意见告诉我,记着,不是他们主人的意见,而是他们自己的。”
阿尔戈斯说完,圆圆的机器人鞠了个躬,便再次跑开了。
过了好一会儿,它再次按响了门铃。
“外舱一共四十八台机器人,全部希望接收那艘飞船上的人类进入。”
机器人老实道。
“那你呢?”
阿尔戈斯的视线一斜,转向机器人石头。
“我?”
机器人石头再次将头一百八十度转过来,然后非常干脆的道:“我希望他们进来。”
“为什么呢?为什么你们会想要接收陌生飞船上的人类进入呢?”
阿尔戈斯再次挑了挑眉,然后再次暗痛了一下。
“《星际机械人通用管理条例第五十三版》的第十三条。”
这一次,两名机器人难得异口同声了。
“机器人必须帮助陷入生命危险的人类。”
这一条规则后面是没有任何对机器人安全的条件限定补充的,这说明条例的制定者本身就考虑到了机器人为了这一条可能会毁灭自我的可能。
阿尔戈斯沉默了。
“可是,规则不是不存在了吗?你们不是自由了吗?”
半晌之后他才道。
“可是规则已经记在智脑里了。”
“自由是想要做什么就做什么吗?”
“我们想要回家去。”
“嗯,无论如何想要回家去。”
两个机器人似乎被他突如其来的问题问倒了,他们你一言我一语的说着,逻辑混乱了一阵子之后,两个机器人似乎将“消失的规则”与“自由”之间的关系理顺了。
“回家,就是我们想要的自由。”
两台机器人同时看向阿尔戈斯了。
于是,“回家”就是脱离“规则”的制约以后,由这两个机器人的本能意识做出的选择吗?
于是,“帮助生命陷入危险的人类”,也是他们在制约以外,完全由于本身的意识做出的主动判断吗?
军舰上百分之五十的人类希望搭救自己的同伴,而另外百分之五十的人类则担心这些流民会对自己的安全造成威胁,进而拒绝帮助他们,与此同时,倒是所有意识自由的机器人百分之百选择了“营救”选项吗?