智能机器人会给人类带来什么?
智能机器人会给人类带来什么?(通用2篇)
智能机器人会给人类带来什么? 篇1
现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就不同了。到那时候,科学作家艾萨克•阿西莫夫于1950年在其著作《我,机器人》中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的流行故事就得改写。
原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带,旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考,什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再给你找个更可口的,说完就自己先逃走了。这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤之别,这也说明自私与智力并不相关。
机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要训练他绝对服从命令一样。
机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几
智能机器人会给人类带来什么?
声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。