第1814页

就像你又要求一个人有独立思维能力,独当一面的能力,又要求他对自己绝对忠诚一样。

就像尼古拉又希望选民按他的经验路线走,又怕这路线是错误的一样。

就像你让上帝造一块他自己举不动的石头一样。

星光文明对人工智能的态度和地球人一样,也是充满了矛盾。

他们当然能造出强大的顶级人工智能,但他们又害怕。

他们怕人工智能造反——这大概是每个造物主都害怕的,一方面希望造出比自己强的存在,这样才能体现造物的意义,一方面又怕它们超越自己,掌控自己。

尽管星光文明自身也很强大,但追求永无极限。

强大的,可以对抗神明的机械之神是他们的追求;强大的,拥有独立智慧与应变能力的人工智能也是他们的追求;绝对忠诚还是他们的追求。

所有这些追求加一块儿,就矛盾了。

自我需求的矛盾才是阻碍进步的最大绊脚石。

星光文明也曾经想过许多办法,可绝大多数解决不了这种矛盾。

所以他们的智脑,依然被限定在一定范围内。

比如智脑很难有绝对权限,最高权限依然是人,智脑制定计划,而人批准计划。

可既然这样,智脑制定的计划又有什么意义呢?

最终也只是个参谋而已。

这一点不是君临的猜测,而是从诸神那边早就已经确定的——星光文明对自家的智脑有着严格的权限甚至智商限制。