极点的结构,并不是不必要的,而是真正有必要的设计。
“人类的自我意识,也许就是这样复杂的体系中的复杂信号形成的能量场。
“只有这样复杂的结构,才能孕育出自我意识场。
“人类的神经和身体,这个极端复杂的体系中,每一个细胞都不是只会记录开关信息的晶体管。
“而是一个功能简单但是完整的计算机,甚至应该是一个小机器人。
“所以,如果按照人类神经系统为标准,只是拥有了数千亿个晶体管的显卡,没有办法产生自我意识。
“就算是我们的工匠设计了复杂的算法,可以做出看上去智能化程度极高的机器。
“但那实际上也是类似于最低级生物就能拥有的条件反射。
“只是反射的形式,被我们预设计成了人类的语言、文字、画面的形式,能够让人类直接理解。
“这根本不是他们本身的自我意识做出的相应。
“站在人类的角度看的话,珊瑚的形状可能具有某种美感。
“但珊瑚虫自己根本没有故意设计成那样。
“所以我认为,按照我们当前的机器和计算机的复杂度,智能机器没办法产生类似人类的自我意识。
“只有一台或者少数机器连接在一起,无法产生人类神经系统这么复杂的能量场。
“就算真的有了自主的智能,也只是最低级的动物的生物本能。
“不过,如果我的这种设想是真实的,那么可以按照这个标准去做一些模拟实验。
“设计和生产一批小型智能原件,让它们相互之间具有相对独立性。
“但是又可以互相组合起来,构建大型复杂智能机器。
“首先按照相对复杂的动物的大脑为标准,建设具有数量相当的智能原件的机器。
“简单的鱼类只有十万个脑细胞,老鼠有数千万个脑细胞,猫有数亿个脑细胞,猴子有数十亿个脑细胞。
“动物也许没有我们人类一样复杂的意识,但是显然也是都是有则鲜明的生物特征的。
“你可以参考这个差距,从简单的动物结构来设计……或者说堆砌。
“然后逐步增加这个智能系统的复杂度。
“不过要需要注意的是,如果意识真的是能量场,那强度就可能会受到元器件间的距离影响。
“如果用山脉一样的尺寸,做出了一条鱼的大脑规模,可能什么反应都没有。
“因为就算是鲸鱼的脑子,也不比人类的脑子大多少。
“所以要参考脑细胞的规模,实现基础功能的原件的规模,要尽可能的简单而且细微。
“当然,这一切也都只是猜测,更大规模的脑子会不会产生意识,会产生什么样的意识,我们无法判断。
“一切都要依靠实验来验证。
“最后,在我看来,这条路可能是有一定风险的。
“就算是虫子,也都有趋利避害的意识。
“智能机器如果真的产生了自我意识,他们会怎么看待我们人类?
“是否会继续无条件服从于我们的命令?
“我们是否要按照管理人类的标准,去管理这些拥有智能的机器?
“甚至于,就算是选择按照对待人类的标准,我们给了他们足够的权力和照顾。
“他们之中是否会出现不甘于现状的阴谋家。
“他们是否会因为觉得,他们与人类根本不算是同类,而是类似天敌之间的关系?
“所以会不会暗中串联起来消灭人类?”
朱迪镧听了之后稍微有点懵:
“这……父皇,那我们是不是……不要去搞这种复杂智能机械?
“继续使用现在的单体智能机械比较好?
“虽然这种智能机器的算力会越来越高,但是实际复杂度远远不如比较复杂的动物。
“所以安全性会相对较高一些……”
朱靖垣想了想说:
“那也未必安全,我们可是有互联网的,绝大部分智能机器都是会联网的。
“也就是说,全天下的智能机器,都可能会纳入同一个体系。
“互联网上的智能机器的数量,达到人类大脑的规模只是时间问题。
“如果这个体系上诞生了自我意识,那全天下的联网的机器就都是它身体的一部分。
“如果真的能诞生,那它的意识能量场的规模……将覆盖整个星球……
“如果它对人类有敌意,那人类会非常的危险。
“人类会变成它身上的微生物,就像人类体内的细菌一样。
“当然,按照我们目前的猜测,短期内他们大概率是没办法产生意识的。
“因为他们的原件之间的距离太远了,需要异常庞大的能量才能维持它的能量场。
“最后的最后,这一切也都是我的猜测和想象。
“