【新唐人2014年5月4日訊】著名物理學家史蒂芬•霍金(Steven Hawking)5月3日為英國《獨立報》撰文指出,一群頂尖的科學家認為,人工智能或許不僅是人類歷史上最大事件,還有可能是最後的事件,除非人類懂得如何規避風險。言外之意,人工智慧可能導致人類毀滅。
據英國《獨立報》報導,好萊塢大片《超驗駭客》正在影院上映,該片由約翰尼•德普(Johnny Depp)主演,講述電腦未來將擁有的超越人類的能力。霍金觀後表示擔憂,無論從短期亦或長期角度來看,人工智能均存在巨大風險。
他說:「人工智能的短期影響在於由誰來控制它,而長期影響則為它是否能夠被控制。」
他表示,機器人和其他的人工智慧設備或許會給人類帶來巨大的利益,人工智能將來或可超越金融市場、人類研究及領袖的智慧,甚至創造出人類無法理解的武器。
霍金強調,人類在考核人工智能的風險和收益方面付諸的研究實在太少。
他說:「專家們面對這個問題時,肯定千方百計保證會得到最好的結果,真的如此嗎?否!如果有一個優越的外星文明發來一則信息:『我們將在幾十年後到達地球,』我們是否回答說:『好的,當你到達地球的時候,告訴我們一聲』?或許我們不會那麼做,但是如果人工智慧繼續發展下去,那樣的情況幾乎就會發生。」
據英國《獨立報》報導,好萊塢大片《超驗駭客》正在影院上映,該片由約翰尼•德普(Johnny Depp)主演,講述電腦未來將擁有的超越人類的能力。霍金觀後表示擔憂,無論從短期亦或長期角度來看,人工智能均存在巨大風險。
他說:「人工智能的短期影響在於由誰來控制它,而長期影響則為它是否能夠被控制。」
他表示,機器人和其他的人工智慧設備或許會給人類帶來巨大的利益,人工智能將來或可超越金融市場、人類研究及領袖的智慧,甚至創造出人類無法理解的武器。
霍金強調,人類在考核人工智能的風險和收益方面付諸的研究實在太少。
他說:「專家們面對這個問題時,肯定千方百計保證會得到最好的結果,真的如此嗎?否!如果有一個優越的外星文明發來一則信息:『我們將在幾十年後到達地球,』我們是否回答說:『好的,當你到達地球的時候,告訴我們一聲』?或許我們不會那麼做,但是如果人工智慧繼續發展下去,那樣的情況幾乎就會發生。」