第60章 细思极恐(2 / 3)

毁灭信徒 黄白蓝黑 4665 字 2017-05-26

定从时间顺序上再做一个梳理。

果然,他在时间顺序上又发现了一些现象,那就是越在远古时代,神在世上显示的神迹越多;越到后来,这世上的神迹越少。然后在差不多距今四百到六百年之间的时候,除了道教徒仍然有法力之外,佛教和光明神教的信众再也没有法力,神也不在世上显示神迹。

这种现象背后隐藏着什么意义呢?

黄勇在休息室里踱着步,百思不得其解。他想找普通禅师交谈,探讨一下到底怎么回事。可是普通不在研究所,电话也关机了。普通走的很匆忙,说是哪个女人的预产期要到了,他要赶紧过去,云云。黄勇不由得暗自发笑:一个和尚,岁数也不小了,关心人家女人的预产期干什么?实在是心理变态!或者,这位女人肚子里怀的是普通方丈的私生子?

黄勇不是个喜欢揣测别人隐私的人,对普通法师行踪的猜测到此为止,思想重新回到刚才的方向上。他觉得自己陷入了一个迷宫,一时找不到头绪走不出来。于是他冲了一杯绿茶,打开电视坐在沙发上,想放松一下大脑。

电视上,正在播放着一个对话节目。一名女主持人正与一位科学工作者对话,主题是人工智能。黄勇一下就认出了那位女科技工作者,是他父亲黄天的续弦,人工智能研究专家魏娜教授。

女主持人问的是当下比较热门的一个话题:“魏教授,以您专业人士的角度看,人工智能的发展会不会对人类最终构成威胁?有人认为,人工智能的进化速度很快,最后可能会发展到人类无法控制的地步,并最终回过头来毁灭人类。请问您怎么看?”

魏娜接过话筒道:“从我个人的体会来讲,人们在这方面的担忧不无道理。我认为最关键的是,如何把握人工智能的智能程度。我们研究人工智能的目的是为人类所用,给人类的生产生活提供方便,那么这个人工智能就不能太笨,因为太笨了它不能帮人类做多少事情,对吧?但它又不能太智能,如果它太智能了,甚至智能程度超过了人类,一旦他们不受人类的控制,它们生存的信仰不再以服务人类为最高原则而是以他们自己的存在为最高原则,那人类就危险了。这种情况下说人类被人工智能灭掉,不是危言耸听。”

女主持人道:“我明白您的意思了魏教授。您的意思是,要把握一个度。在这个度以下,人工智能越聪明越好,就越能帮人类做更多的事情;但过了这个度,就要让人工智能越笨越好,否则会威胁人类自身。”

魏娜道:“正是。”

女主持人又问道:“魏教授,也有人说,一个被造物的智能程度是不会超过它的造物主的。如果真是这样的话,那人工智能就是绝对安全的了。您认为这个论断科学吗?可信吗?”

魏娜没有丝毫犹豫就断然否认:“我不这么认为!被造物凭什么不会超过它的造物主呢?其实我们现在已经有很多事例能对这个说法的正确与否给出判断了。超级计算机的运算速度比人脑快上亿倍不止了吧?其实,人类造出来的东西对人类的存在造成威胁,并不一定要等到造出的东西比人类更智能的时候才会出现。现在国际上禁用的生物武器,有些病毒就是人类自己造出来的。这些病毒放出来就会毁灭世界。从某种程度上说,如果这种情况出现,我们可不可以认为,是被造物把造物主灭掉了?”

黄勇霍然从沙发上一跃而起,兴奋地把手中的茶杯摔到了地上。他从魏娜的话中得到了灵感,大胆地做出了一个假设。他怕自己忘记,赶紧掏出纸笔迅速记录了下来。

各大宗教和民间传说都有人类是神所造的说法。那么,人类是不是神为了神自己的需要而造出来的人工智能?

假设这个说法是正确的,那很多现象就好解释了。

远古时候,人类刚刚造出来,智能化程度低,不能帮神做多少事情,当然也就更不能对神造成威胁了。所以那个时候神不担心人类的进步,会显示神迹,会派出先知甚至亲自现身指导人类,给人类指示,让人类进步。因为只有人类进步了,智能化程度提高了,才能帮神做更多的事情。

那个时候人类的进步是符合神的利益的,那个时候神在人的眼里是仁慈的。因为那个时候的人类科技水平低,见到神的高科技,自然以为神是神通广大无所不能的。

但随着人类的发展,到了一定程度之后,神感觉到了威胁。觉得人类继续进化下去甚至可能会跟神争夺资源,把神看作人类生存的威胁,最后灭掉神。

所以神要采取措施。

神建立了宗教,从心灵上培养人对神的忠诚。神不在世间轻易显示神迹。特别是在人类进入科技时代之后,人类对任何出现的现象都会刨根问底研究透彻。神如果显示神迹,必然会露出线索让人类研究,这对神非常不利,于是神干脆不显示神的存在了。

现代科学发端于信仰光明神教的西戎人地区。西戎人最早进入科学时代,培育出科学的思维。东夷人对任何神的信仰都与日常生活