【新唐人2016年01月20日讯】曾警告人类“别开发杀手机器人”的英国着名科学家霍金(Stephen Hawking)再次对人类提出警告,他说,核战争、全球变暖、转基因病毒等,这些人类一手制造出的一系列东西,可能给自身的生存带来致命危险。
英媒BBC报导说,霍金表示,科学和技术的不断进步会创造“新的出错的可能”,尽管按年度算,地球发生毁灭性灾难的可能性很小,但小的危险会积累起来,数千年或数万年间将成为现实。
霍金说,到了那个时候,人类已经有能力移居到其它星球上,所以地球上的灾难不一定意味着人类的终结。他警告,但在今后的数百年间,人类还没有到其它星球生存的能力,所以人类还是要特别小心。
此前,霍金还曾对人工智慧对人类自身的潜在威胁发出过警告。去年7月,霍金和蘋果共同创办人沃兹尼亚克(Steve Wozniak)等约1000名顶尖科技领导人发表公开信警告:人类使用人工智慧、不经人力干预挑选攻击目标的自主武器,被形容是“继火药和核武后的第3次战争革命”。
他们写道:“人类当今的主要问题是,我们是否该展开全球人工智慧军备竞赛,还是应该防范竞赛展开。”;“如果有任何主要军事强权推动人工智慧武器研发,全球军备竞赛几乎是无可避免的。”
科学家表示,透过阿诺史瓦辛格(Arnold Schwarzenegger)的电影《魔鬼终结者》一炮而红的自动杀手机器的概念,正在迅速从科幻变成现实。根据美联社报导,部分偏好“杀手机器人”的评论人士辩称,在战场上使用机器人反而可以拯救生命。
但霍金等专家们警告,一旦开发出这种武器,“流入黑市或恐怖分子手中,只是迟早的事。”届时后果将不堪设想。
责任编辑:赵云
英媒BBC报导说,霍金表示,科学和技术的不断进步会创造“新的出错的可能”,尽管按年度算,地球发生毁灭性灾难的可能性很小,但小的危险会积累起来,数千年或数万年间将成为现实。
霍金说,到了那个时候,人类已经有能力移居到其它星球上,所以地球上的灾难不一定意味着人类的终结。他警告,但在今后的数百年间,人类还没有到其它星球生存的能力,所以人类还是要特别小心。
此前,霍金还曾对人工智慧对人类自身的潜在威胁发出过警告。去年7月,霍金和蘋果共同创办人沃兹尼亚克(Steve Wozniak)等约1000名顶尖科技领导人发表公开信警告:人类使用人工智慧、不经人力干预挑选攻击目标的自主武器,被形容是“继火药和核武后的第3次战争革命”。
他们写道:“人类当今的主要问题是,我们是否该展开全球人工智慧军备竞赛,还是应该防范竞赛展开。”;“如果有任何主要军事强权推动人工智慧武器研发,全球军备竞赛几乎是无可避免的。”
科学家表示,透过阿诺史瓦辛格(Arnold Schwarzenegger)的电影《魔鬼终结者》一炮而红的自动杀手机器的概念,正在迅速从科幻变成现实。根据美联社报导,部分偏好“杀手机器人”的评论人士辩称,在战场上使用机器人反而可以拯救生命。
但霍金等专家们警告,一旦开发出这种武器,“流入黑市或恐怖分子手中,只是迟早的事。”届时后果将不堪设想。
责任编辑:赵云