有人违背法则 开始制造不听话的机器人

2016年01月06日温哥华
【新唐人2016年1月5日讯】好莱坞曾经给科学家们一个教训,那就是机器人开始反抗它们的创造者——人类。然而科学家只把好莱坞的电影当成娱乐,并没有把它看成具有科学意义的警示。甚至已经有人开始教机器人拒绝执行人类的命令了。


(GUILLAUME SOUVANT/AFP/Getty Images)


据英国镜报报导,他们给两个名叫谢弗和邓普斯特的小型机器人编制了程序,当人类的指令对它们自己有危险时,容许它们违背人类的命令。

这个试验的结果很像威尔·史密斯主演的《我与机器人》中那个会道歉的机器人索尼,它们都遵守一些基本原则。

马塞诸塞州塔夫茨大学的工程师戈登·布里格斯和马特赫兹博士正试图创造出更能以人性化方式交流的机器人。他们在一篇论文中表示,随着自动自主主体能力的提升,会有更多人对计算机伦理学或自主主体行为的道德性领域产生兴趣。


机器人说往前走不安全(youtube)


这两个机器人会遵守如“起立”和“坐下”的指令。但如果命令它们走入障碍物或者走向桌子的边缘,机器人会礼貌地拒绝。

研究人员在机器人的程序中植入了推理机制,让机器人评估环境,并判断指令是否会危及它们的安全。然而,这项研究似乎违反了科幻作家艾萨克·阿斯莫夫制定的机器人法则,即机器人必须服从人类的命令。

许多人工智能专家认为,确保机器人遵守这些法则是十分重要的。这些法则还包括机器人永远不能伤害人类,只能在不和其它法则相冲突的前提下保护自己。

这项工作可能会引发忧虑。人们担心人工智能使机器人可以违背人类的命令,这可能会带来灾难性的后果。

科学界的领袖人物,包括霍金教授和马斯克都已警告过,人工智能可能会失控。

还有人警告说,机器人可能最终会取代人类的工作,担心机器人将接管一切。

在电影《我与机器人》中,人工智能让机器人索尼突破了编程,违抗了人类的命令。

(新唐人记者又容综合报导)

◇【新唐人】编辑整理作品,欢迎转载。请注明文章来源及地址,违者将追究法律责任。