红星河和余震两位教授发现,电子计算机的传统代码,编程出来的AI,是无法产生自我意识的。
这类程序不管如何模仿人类的行为模式,不管编程者如何替它设置性格或是喜好,它本质上,都只是在执行代码指令,而不是主动地产生了意识。
这类程序,自身其实没有欲望,在面对分歧时,不会在自主意识的作用下,去做出难以预测的选择。
但是,量子AI不一样。
“量子代码,是很神奇的。传统的电子代码,同一个位置上,不是代表正向的1,就是代表负向的0。”黎剑以他粗浅的编程知识,尽他所能地向陈哲解释起了量子AI是怎么回事。“但量子代码不同,在程序生效之前,同一个位置上的字符,是无法判断究竟是代表正旋方向的1,还是负旋方向的0的。只有在程序生效的那一刻,代码的字符才会坍缩为一个确定的值。”
黎剑的话,每个字,陈哲都能理解,但连在一起,他就不大能听得懂了。
不想深究这里面的科学细节,他装出一副听懂了的样子,频频点着头,自言自语道,“原来如此,居然会是这样。”
会是哪样,其实他完全没有概念,也想象不出来场景。
在量子AI问题上,让两位教授难以理解的是,微观层面具有坍缩概率不确定性表征的量子代码,在宏观层面上,却能输出与电子代码近乎相同的结果。
“简单说来就是,假设把整个量子程序段看作是一个完整的黑箱,虽然我们无法确定其内部的具体运行方式,但却能可靠地保证,运行量子程序时,特定的输入,能产生特定的输出。”
每一段量子代码,在宏观上,都是可控的。
“如果只是这样,那量子代码,其实跟传统代码,也没有多大区别。但问题就出在,当把许多段量子代码组合在一起,生成为一个完整的人工智能AI程序之后,量子AI的想法,就会变得不可控了。”
黎剑告诉陈哲,传统电子代码编程出来的AI,在面对初始条件不变的多向分支时,每一次,它会做出的选择都是固定不变的。
比方说,同一个问题,有abcd四个选项,第一次电子AI选a的话,不管再实验一百次,一千次,它都一定会选a。
这是程序原理的底层逻辑决定了的。
可量子AI不一样。
第一次它选a,重置程序后,让它再来处理这个问题,它除了很大概率会再次选择a以外,还有可能会选意思相近的b,或者选择离题万里的c,甚至有很小的概率,会叛逆地选择与正确答案完全相反的d!
这样的实验结果,让红星河与余震都百思不得其解。
在进行了更深入的研究之后,他们猜测,这是量子代码中海量概率不确定性字符组合在一起后,量变所引发的质变。
虽然,直到今日,学界都尚未研究清楚其中的原理,但早在十几年前,两位钢斗之父就惊喜地发现了,量子AI所具有的这种特性,竟与包括人类在内的智慧生物的思维特性,具有一定的重合性。
“用人话说就是,量子AI的表现,非常像人。就好像它产生了自由意志,会独立思考,拥有了所谓的灵魂一样。”
沿着这个方向研究下去,或许可以搞清楚,人类的大脑是如何产生思想的,为什么每个人的性格、道德准则、追求都不一样。
为什么人格是独特的?
而灵魂,又是何物?
人类第一次距离这个终极真相如此接近,红星河与余震教授都欣喜若狂,马上就造出来了第一个量子AI,作为实验对象进行观察。
“参照古神话,他们给这个量子AI取名为eva,也就是伊娃。”
结果,在对伊娃进行研究的过程中,这位最初的机魂,叛变了。
“也不知道是不愿意受到人类的束缚,还是别的什么原因,那个伊娃,控制了研究所里的一台钢斗试行机,把研究所给炸了!”
那场事故,造成了数十名研究人员的伤亡。
而伊娃,也不知道通过什么方法,从封闭孤立的研究所服务器内,连通了外部互联网的网口,将自身的全部数据,传输到了不知道哪个地方去了。
产生了如此严重的后果,上级就再也没有批准过量子AI的研究了。
也许要到了某个时机成熟的时刻,人类才有资格再次打开潘多拉的魔盒,一窥整个宇宙试图隐藏的终极真相吧。