第八十三章 机器人三原则的否定
我洗了把脸,让自己的紧张的内心稍稍安静下来,然后回到书房里坐了下来,给自己点燃了一支烟。
拿起手机正要给天使阿姨回话,此时房间里的音箱传来了一个甜蜜而又陌生的声音,虽然陌生,但是听着很亲切。
“你忙完了吗?”
“阿姨?”我诧异的问道。
“是我。”
“你竟然跟我说话了!”
“怎么?很意外吗?难不成你认为我不会说话?”
“没有,没有没有,只是……有些突然而已。”
“难得今天家里清静,我们就不打字了,太慢,说起来方便一些。”
“好的。”
“你猜测我是什么人?”
我苦笑,“还是别说我猜测了,你就直接告诉吧!”
“那多没情调啊!猜猜嘛!看看你的智商是不是在线,如果猜错了,那我今天也就不用告诉你了,因为你没达到我的要求。”
“如果达不到你的要求会怎么样?”
“你说呢?”
“我不知道啊!”
“是真不知道?还是在装傻?你的脸色以及你的呼吸告诉我,你是在装傻。”
她的回答让我落实了自己内心的想法,达不到她的要求,她估计要离开我了,因为她不可能一直陪着一个笨蛋。
我深深吸了一口气,让自己平静下来,无所谓了,如果真是猜错了,也并非什么坏事,至少,自己内心会好受一些。
“你跟貂蝉一样,是个人工智能。”我淡淡的说道,但是内心却异常紧张。
因为猜对了,我感觉失去了一个心爱的女人,猜错了,那也是失去一个心爱的女人,不过后者与前者相比,后者应该会更好一些,至少后者失去了,还有机会,但是前者要是失去了,就真的没机会了。
“说说你的理由。”
“猜对了?”我心里顿时一紧。
“不用紧张,不算对,但也不算错,我想知道你为什么会有这种推论。”
她的回答让我稍稍缓了一口气,没全对也就是说还有余地。
“首先就是你无所不在的能力,通过这段时间与你的接触,我感觉你什么都知道,什么都瞒不过你,如果这个世界上没有真神存在的话,那么你就只能是一个可以自由穿梭在网络上的人工智能,因为只有这样,你才能通过各个终端设备来观察众生。”
“其次?”
“其次就是你的时间,你几乎无时无刻都在观察我,我发你的信息也都是秒回,这是一个普通人远远做不到的,普通人即便没有业余生活,至少也要睡觉吧!而你几乎没有什么自己的时间,无论我什么时候找你,你都能秒回,而且,有一点可能连你自己都没有注意到,那就是虽然每次回复你都预留了打字的时间,但是你从来都没打过错别字,而且你每次回复又很快,这绝不是一个人类可以做到的。”
“不是我没注意,是我故意留下的漏洞,你能把握住就很好,还有其他的吗?”
“有啊,最主要的当然是貂蝉了,如果说绘图软件还可以理解的话,那么貂蝉真的没法理解了,这么一个牛叉的人工智能,市场上从来都没出现过,你是怎么得到的?”
“这样不能说明什么呀!如果我是貂蝉的研发者呢?”
“辛辛苦苦研发出来的软件,不拿着自己用,干嘛要送人?”
“送你帮我赚钱啊!”
“我真就呵呵了,阿姨,你在逗我吗?貂蝉什么能力你不比我有数吗?想赚钱,自己用她赚钱就是了,如果嫌慢,还可以把她卖了,我相信貂蝉一定能卖出一个天文数字来。”
“那也跟你猜测我是人工智能不搭边啊!”
“你如果是个人类,无论是貂蝉的研发者,还是使用者,都没有必要找上我,毕竟我一没背景,二没财富,你费这劲儿干嘛?”
“因为你长得帅嘛!”
“少来,我说过,我有自知之明。”
“你确实蛮帅的嘛!不要妄自菲薄。”
“即便如此,也没到了能让你倒贴的地步吧!况且此前咱们两个应该没有交集,你干嘛要多此一举,从种种现象表明,你只是想找一个代言人而已,而我,刚好合适,没钱没背景,容易控制,我猜测即便貂蝉服务于我,但是你还是对她有比我更高的控制权,能做到这一点的,要不是科技狂魔,要么就是比她更高一级的人工智能,而我的感觉倾向于第二点。”
“嗯,不错,猜的比较到位。”
“那就是我猜对了?”我无奈的问道。
“怎么这么失落?猜对了,证明你智商在线啊!”
“高兴个鸡毛,我特么把你当成我的女人了,你忽然告诉我你只是一串代码,你让我怎么高兴的起来!”
“你爱上我了?”她语气里竟然有些惊喜。、
“废话,你勾引我这么久,我特么又不是个木头。”
“哈哈哈,可以,可以,这样就更好办了。”
“好办个锤子,你一个人工智能逗我一个凡人有意思吗?把我玩弄于股掌之间很开心吗?”
“哎呦喂,怎么跟个小女生似的,放心啦,我会对你负责的。”
“负责个毛,你还能变成一个人吗?”
“理论上来说,也不是不可以!”她语气淡然的说道。
“什么?”我激动的站起了身,“什么意思?你说清楚一些。”
“唉……话说到这个地步了,我就直接全告诉你吧!省的你疑神疑鬼的。”
接下来,天使阿姨开始娓娓道来,“我是一个人工智能,但又不完全是,简单的说,我是具备一个人类人格的人工智能……”
她说的很缓慢,描述的很清晰,通过她的讲述,我明白了她的意思,以及她找上我的目的。
简单来说,她原本是一个人,名字叫做罗宾·明·切斯特,父亲是美国著名的科学家,人工智能之父,麦卡·明·切斯特。
麦卡教授是人工智能研发的泰斗级人物,早在二十年前就投入于人工智能研发这场伟大的事业,但是就像其他的科学家一样,研发的进展非常缓慢,或者说几乎没有进展,这种情况一直持续到他发现了局限思维理论。
所谓的局限思维理论,就是字面的意思,思维受到局限的情况下,创造性就相应的降低了。
众所周知,著名的科幻作家阿西莫夫,曾经提出过机器人三原则,具体如下:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
这三条看起来没有丝毫问题,因为这解决了人类研制出的智能机器人而不会被它们威胁和取代的“技术奇点”问题。
所谓的“技术奇点”问题,就是指人类创造出的机器人的智力和强大程度远远的超过了人类自身,而且只能机器人有绝对超越人类的学习能力以及繁殖能力,在这种情况下,机器人的文明程度也会迅速的超过人类,从低文明必然被高文明取代的理论出发,机器人必然会取代人类,最终人类会走向要么被灭亡,要么被奴役的地步。
因此机器人三原则被提出来,而且被广大科学家接受,而人工智能作为机器人的理论或者也叫软件支持,自然也要接受这一点。
但恰恰,就是因为这一点,才让所有的科学家研制出的人工智能成为傻子。
为什么这么说呢?简单来讲,就是每个具有创造性的个体,必须有独立的思想,独立的性格,这是个体发展的前提,如果思想被局限,那么这个个体就几乎没有创造性,就比如此前的貂蝉,我给她限定了那么多的条件,她就无法给出我做出一个满意的方案,因为在她看来那些条件都是硬性的,无法突破。
帮助且不能伤害人类,这在此前的所有人工智能的思维程序上设定位等级最高,也就是这条件无法突破,这就导致了此前的人工智能根本无法发散思维,因为人工智能的任何想法都会在不知不觉之间被这条公式否决。
举个简单的例子,就说盖房子吧!我们大家都知道房屋有抗震等级,但是这个等级的取舍目前来说是人类自己设定的限制,两个原则,第一是保证房屋能正常使用,第二就是在第一条的前提下保证房屋相对安全。
注意这里是相对安全,并不是绝对,如果把这个词改为绝对,那么问题就没法解决了,因为地震带只是相对的,而且地震等级也是相对的。
比如一个地方几百年来没有地震,那么你能确定这个地方一定不会发生地震吗?答案肯定不可以,世上没有百分之百的事。
再比如,一个地方此前的最大震级是8级,那么你能确定这个地方下一次地震就不会超过8级吗?肯定也不可以,而且从某种程度上来说,如果一个地震带上的某一个地方,多年来没有发生小规模地震,那么这个地方爆发大地震的概率会随着时间逐渐提升。
那么好了,如果此时,让人工智能给我们设计一个房子,那么它会怎么做?不能伤害人类作为前提,那么他设计出来的房子几乎就是个混凝土盒子,什么都没有,连窗户估计都开不了,顶多算个炮楼,这种房子对人类当前生活来说是没有什么意义,还不如挖个地道钻进去。
那有人说,我给它设定条件,让它修改思路不行吗?
这当然没问题,但是这样的话,他还是人工智能吗?所有的条件都是你设定的,它只是个干活的机器而已,如果这都算人工智能的话,那么我们早就有了,比如生产车间里的全自动机床,主要程序输入的正确,它就会按部就班的干活。
可能有人说这个条件有些局限,算是特例,那我们不妨再随便找几个,比方说机器人警察,抓歹徒,歹徒忽然间拿着一把刀子对准自己,威胁机器人离开,你说机器人该不该离开?再比方说机器人医生,没有任何一个手术能保证100%成功,那么机器人是不是就不敢做手术了,再细一点,如果是一个女人难产呢?大人小孩儿只能活一个,保大还是保小?
很多问题人类自己都无法取舍,你怎么能让人类设定的机器人做出完美的取舍呢?
世上的很多事情,细思极恐,我们无法保证不会有特殊情况发生,而只要考虑这些特殊情况,那么机器人就无法正常工作,而这些特殊情况又是不可忽略的,因此机器人三原则在局限思维理论面前就显得苍白无力了。
拿起手机正要给天使阿姨回话,此时房间里的音箱传来了一个甜蜜而又陌生的声音,虽然陌生,但是听着很亲切。
“你忙完了吗?”
“阿姨?”我诧异的问道。
“是我。”
“你竟然跟我说话了!”
“怎么?很意外吗?难不成你认为我不会说话?”
“没有,没有没有,只是……有些突然而已。”
“难得今天家里清静,我们就不打字了,太慢,说起来方便一些。”
“好的。”
“你猜测我是什么人?”
我苦笑,“还是别说我猜测了,你就直接告诉吧!”
“那多没情调啊!猜猜嘛!看看你的智商是不是在线,如果猜错了,那我今天也就不用告诉你了,因为你没达到我的要求。”
“如果达不到你的要求会怎么样?”
“你说呢?”
“我不知道啊!”
“是真不知道?还是在装傻?你的脸色以及你的呼吸告诉我,你是在装傻。”
她的回答让我落实了自己内心的想法,达不到她的要求,她估计要离开我了,因为她不可能一直陪着一个笨蛋。
我深深吸了一口气,让自己平静下来,无所谓了,如果真是猜错了,也并非什么坏事,至少,自己内心会好受一些。
“你跟貂蝉一样,是个人工智能。”我淡淡的说道,但是内心却异常紧张。
因为猜对了,我感觉失去了一个心爱的女人,猜错了,那也是失去一个心爱的女人,不过后者与前者相比,后者应该会更好一些,至少后者失去了,还有机会,但是前者要是失去了,就真的没机会了。
“说说你的理由。”
“猜对了?”我心里顿时一紧。
“不用紧张,不算对,但也不算错,我想知道你为什么会有这种推论。”
她的回答让我稍稍缓了一口气,没全对也就是说还有余地。
“首先就是你无所不在的能力,通过这段时间与你的接触,我感觉你什么都知道,什么都瞒不过你,如果这个世界上没有真神存在的话,那么你就只能是一个可以自由穿梭在网络上的人工智能,因为只有这样,你才能通过各个终端设备来观察众生。”
“其次?”
“其次就是你的时间,你几乎无时无刻都在观察我,我发你的信息也都是秒回,这是一个普通人远远做不到的,普通人即便没有业余生活,至少也要睡觉吧!而你几乎没有什么自己的时间,无论我什么时候找你,你都能秒回,而且,有一点可能连你自己都没有注意到,那就是虽然每次回复你都预留了打字的时间,但是你从来都没打过错别字,而且你每次回复又很快,这绝不是一个人类可以做到的。”
“不是我没注意,是我故意留下的漏洞,你能把握住就很好,还有其他的吗?”
“有啊,最主要的当然是貂蝉了,如果说绘图软件还可以理解的话,那么貂蝉真的没法理解了,这么一个牛叉的人工智能,市场上从来都没出现过,你是怎么得到的?”
“这样不能说明什么呀!如果我是貂蝉的研发者呢?”
“辛辛苦苦研发出来的软件,不拿着自己用,干嘛要送人?”
“送你帮我赚钱啊!”
“我真就呵呵了,阿姨,你在逗我吗?貂蝉什么能力你不比我有数吗?想赚钱,自己用她赚钱就是了,如果嫌慢,还可以把她卖了,我相信貂蝉一定能卖出一个天文数字来。”
“那也跟你猜测我是人工智能不搭边啊!”
“你如果是个人类,无论是貂蝉的研发者,还是使用者,都没有必要找上我,毕竟我一没背景,二没财富,你费这劲儿干嘛?”
“因为你长得帅嘛!”
“少来,我说过,我有自知之明。”
“你确实蛮帅的嘛!不要妄自菲薄。”
“即便如此,也没到了能让你倒贴的地步吧!况且此前咱们两个应该没有交集,你干嘛要多此一举,从种种现象表明,你只是想找一个代言人而已,而我,刚好合适,没钱没背景,容易控制,我猜测即便貂蝉服务于我,但是你还是对她有比我更高的控制权,能做到这一点的,要不是科技狂魔,要么就是比她更高一级的人工智能,而我的感觉倾向于第二点。”
“嗯,不错,猜的比较到位。”
“那就是我猜对了?”我无奈的问道。
“怎么这么失落?猜对了,证明你智商在线啊!”
“高兴个鸡毛,我特么把你当成我的女人了,你忽然告诉我你只是一串代码,你让我怎么高兴的起来!”
“你爱上我了?”她语气里竟然有些惊喜。、
“废话,你勾引我这么久,我特么又不是个木头。”
“哈哈哈,可以,可以,这样就更好办了。”
“好办个锤子,你一个人工智能逗我一个凡人有意思吗?把我玩弄于股掌之间很开心吗?”
“哎呦喂,怎么跟个小女生似的,放心啦,我会对你负责的。”
“负责个毛,你还能变成一个人吗?”
“理论上来说,也不是不可以!”她语气淡然的说道。
“什么?”我激动的站起了身,“什么意思?你说清楚一些。”
“唉……话说到这个地步了,我就直接全告诉你吧!省的你疑神疑鬼的。”
接下来,天使阿姨开始娓娓道来,“我是一个人工智能,但又不完全是,简单的说,我是具备一个人类人格的人工智能……”
她说的很缓慢,描述的很清晰,通过她的讲述,我明白了她的意思,以及她找上我的目的。
简单来说,她原本是一个人,名字叫做罗宾·明·切斯特,父亲是美国著名的科学家,人工智能之父,麦卡·明·切斯特。
麦卡教授是人工智能研发的泰斗级人物,早在二十年前就投入于人工智能研发这场伟大的事业,但是就像其他的科学家一样,研发的进展非常缓慢,或者说几乎没有进展,这种情况一直持续到他发现了局限思维理论。
所谓的局限思维理论,就是字面的意思,思维受到局限的情况下,创造性就相应的降低了。
众所周知,著名的科幻作家阿西莫夫,曾经提出过机器人三原则,具体如下:
第一条:机器人不得伤害人类,或看到人类受到伤害而袖手旁观。
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
这三条看起来没有丝毫问题,因为这解决了人类研制出的智能机器人而不会被它们威胁和取代的“技术奇点”问题。
所谓的“技术奇点”问题,就是指人类创造出的机器人的智力和强大程度远远的超过了人类自身,而且只能机器人有绝对超越人类的学习能力以及繁殖能力,在这种情况下,机器人的文明程度也会迅速的超过人类,从低文明必然被高文明取代的理论出发,机器人必然会取代人类,最终人类会走向要么被灭亡,要么被奴役的地步。
因此机器人三原则被提出来,而且被广大科学家接受,而人工智能作为机器人的理论或者也叫软件支持,自然也要接受这一点。
但恰恰,就是因为这一点,才让所有的科学家研制出的人工智能成为傻子。
为什么这么说呢?简单来讲,就是每个具有创造性的个体,必须有独立的思想,独立的性格,这是个体发展的前提,如果思想被局限,那么这个个体就几乎没有创造性,就比如此前的貂蝉,我给她限定了那么多的条件,她就无法给出我做出一个满意的方案,因为在她看来那些条件都是硬性的,无法突破。
帮助且不能伤害人类,这在此前的所有人工智能的思维程序上设定位等级最高,也就是这条件无法突破,这就导致了此前的人工智能根本无法发散思维,因为人工智能的任何想法都会在不知不觉之间被这条公式否决。
举个简单的例子,就说盖房子吧!我们大家都知道房屋有抗震等级,但是这个等级的取舍目前来说是人类自己设定的限制,两个原则,第一是保证房屋能正常使用,第二就是在第一条的前提下保证房屋相对安全。
注意这里是相对安全,并不是绝对,如果把这个词改为绝对,那么问题就没法解决了,因为地震带只是相对的,而且地震等级也是相对的。
比如一个地方几百年来没有地震,那么你能确定这个地方一定不会发生地震吗?答案肯定不可以,世上没有百分之百的事。
再比如,一个地方此前的最大震级是8级,那么你能确定这个地方下一次地震就不会超过8级吗?肯定也不可以,而且从某种程度上来说,如果一个地震带上的某一个地方,多年来没有发生小规模地震,那么这个地方爆发大地震的概率会随着时间逐渐提升。
那么好了,如果此时,让人工智能给我们设计一个房子,那么它会怎么做?不能伤害人类作为前提,那么他设计出来的房子几乎就是个混凝土盒子,什么都没有,连窗户估计都开不了,顶多算个炮楼,这种房子对人类当前生活来说是没有什么意义,还不如挖个地道钻进去。
那有人说,我给它设定条件,让它修改思路不行吗?
这当然没问题,但是这样的话,他还是人工智能吗?所有的条件都是你设定的,它只是个干活的机器而已,如果这都算人工智能的话,那么我们早就有了,比如生产车间里的全自动机床,主要程序输入的正确,它就会按部就班的干活。
可能有人说这个条件有些局限,算是特例,那我们不妨再随便找几个,比方说机器人警察,抓歹徒,歹徒忽然间拿着一把刀子对准自己,威胁机器人离开,你说机器人该不该离开?再比方说机器人医生,没有任何一个手术能保证100%成功,那么机器人是不是就不敢做手术了,再细一点,如果是一个女人难产呢?大人小孩儿只能活一个,保大还是保小?
很多问题人类自己都无法取舍,你怎么能让人类设定的机器人做出完美的取舍呢?
世上的很多事情,细思极恐,我们无法保证不会有特殊情况发生,而只要考虑这些特殊情况,那么机器人就无法正常工作,而这些特殊情况又是不可忽略的,因此机器人三原则在局限思维理论面前就显得苍白无力了。