2023年12月21日菁英論壇
【菁英論壇】AI自主武器將現 人類面臨奇異點
【新唐人北京時間2023年12月21日訊】人類創造了機器,但人類從創造機器的第一天就開始害怕和恐懼這個機器。當然最大的恐懼是機器越來越發達,會不會有一天反過來控制人類甚至奴役人類、屠殺人類呢?隨著西方世界的整個工業化進程,在人工智能AI越來越發達的今天,尤其是AI武器化的大國競爭之下,這種恐懼已經從原來的杞人憂天變得越來越現實,機器超越人類的這個奇異點是否即將到來?或者是否已經到來了呢?
四法則有邏輯陷阱 AI武器化逼近奇異點
獨立電視制片人李軍在新唐人《菁英論壇》節目中表示,談到AI的未來,我是非常悲觀的。我記得那時候有一部電影,就是《黑客帝國》,我看了不下十遍,因為這部電影引起了我對整個人類科技的一種反思。就是一開始總覺得科技發展是好事,但是如果按照《黑客帝國》電影所描述的場景, AI控制的智能機器和人類發生了戰爭,最後人類戰敗了,只有極少部分人逃到了地下城市錫安來維持人類的生存。而大部分人類成為AI創造的一個虛擬現實的電池。這部電影實際是講了一個邏輯,就是人類科學是在朝這個方向走,所以我當時看了之後非常震驚,因為我是個有神論者,我相信這是神對人的警告,警示人類,如果按照現在這種科技發展下去,有可能最後有一天人類真的會成為機器人的一塊電池。我相信在西方國家,很多人看了這個影片之後也有這種概念,所以今天大家會看到社會上有很多人是反對AI高速發展的。他們認為要去控制AI,要去規劃它、監管它。但是現在AI產業被認為是人類下一個最有前景的產業,當人的慾望被控制的時候,他那種理性的東西已經失控了,所以很多人已經在這個領域不斷去研究一些突破底線的東西。今年後半年以來,中國兩個AI頂尖人物死了。一個是7月1號,中共AI軍事推演的頂尖專家馮暘赫突然出車禍死亡。現在到了年底了,中國商湯科技的創始人湯曉鷗12月15號在睡夢中離奇的去世了。湯曉鷗這個人很特別,他是中國人臉識別AI系統的一個頂尖人才,而且商湯科技還聚集了中國AI方面的大量人才,商湯科技是一個軍工複合體,湯曉鷗也是軍方的人。
大紀元資深編輯與主筆石山在《菁英論壇》表示,我們現在看到的這種AI,業界叫做ANI,中文翻譯過來叫弱AI或者弱的人工智能。也就是說人類指定一個任務,它可以比人類完成的好,人類不指定的任務,它是不會去自動拓展的。然後就是AGI就是Artificial General Intelligence,通用人工智能,就有點像是強AI了。強AI的意思就是說,你給它設定一個基本的東西,它就能跟人做的差不多了,它也可以自己學習收集資料,任何領域,你只要給它提一個問題,它自己去學習,就能跟你做的差不多了。現在的chatGPT就往這個方向在走。
但是未來還有一種AI,這是更恐懼的,叫做ASI,就是超級AI了,超級人工智能,它的定義是什麼呢?它可以自己設計它的底層邏輯,這個時候恐怕人類就控制不住了。所以我們在談AI到底能走到哪一步的時候,大家知道這三個階段,我們可能要談到是AGI和ASI這個部分,到了這個部分,我們還能不能控制機器?到底是誰在控制誰?
石山說,我記得上世紀五十年代的時候,美國非常有名的科普作家阿西莫夫在寫書的時候,他寫了機器人三法則。第一法則是機器人不得傷害人類或坐視人類受到傷害。第二法則是機器人必須服從人類的命令,除非命令與第一法則發生衝突。第三個法則是在不違背第一或第二法則之下,機器人可以保護自己。後來他發現這裡面還有漏洞,他又加了一個第零法則,所以就變成了阿西莫夫的四法則了,他加了個第零法則,機器人不得傷害整體人類,或坐視整體人類受到傷害,這個是第零法則。然後才是第一法則,除非違反第零法則,否則機器人不得傷害人類或坐視人類受的傷害。他把個體人類放在整體人類之下了,這個時候就發生變化了,你怎麼衡量整體人類受到傷害?如果AI判斷整體人類可能受到傷害,它就可以傷害個體人類了,這裡面的邏輯陷阱是越填反而越大了,所以這裡面就非常可怕。所以人工智能開發全人類一直都是小心翼翼,擔心會不會超越這個所謂的奇異點。
大紀元時報總編輯郭君在《菁英論壇》表示,馬斯克曾經談這個奇異點問題,他的第一個觀點就是,一旦人工智能用於軍事或者武器,就可能超越這個奇異點,因為武器的攻略是傷害人類。那現在人工智能的武器已經開始了,比如說無人的自動武器系統,不管是自動行走的,還是自動飛翔的,只要是自動武器系統,它都有一定的自主決定權,目的就是傷害人類。只不過所有人都希望它去傷害敵人,而不是傷害自己,但是敵人也是人類。所以目前人工智能武器還有一個就是限制,就是說最終決定權是由人來控制,但是這種控制未來是否能夠被捨棄掉,最後由機器人自己來決定呢?說實話這是很有可能的。
人類環節將移出AI系統 AI戰爭迫在眉睫
軍事頻道主持人夏洛山在《菁英論壇》表示,美國現在急於和中共建立軍事方面的溝通。可能出於兩個原因,一個就是在印太地區的緊張對峙態勢下,不要發生擦槍走火。另外一個原因就是一個很緊急的問題了,就是人工智能的自主應用。在人工智能應用領域,美國實際上一直是領先的,但現在中共正在縮短這個差距。美國看到人工智能控制的循環系統中放置人類決策這個環節,這樣一個涉及人類安全的道德底線,現在實際上是岌岌可危了。因此它要建立一個全球認可的、一個有約束力的限制性條約,這就是美國希望跟中共來溝通來達成的一個東西。我們說這個環節是一個道德底線,因為它涉及到人類的安全問題,但是要堅守、要維持這條底線,那誰維持誰就要付出代價。因為人工智能的自主應用實際是太有用了,太誘人了,特別是在軍事上。我們知道戰爭的關鍵因素是速度或者說是時間,而人工智能可以在本質上提高這個速度,或者是縮短時間,如果在這樣一個環路上加入一個人,那麼就會大大降低這個系統的速度,因為人的認知和反應的速度遠遠趕不上機器。那麼也就是說,現在就是誰也不願意放棄在軍事鬥爭中的競爭優勢,去維護這麼一個道德底線。
這個境況就很可怕,如果競爭的雙方有一方在競爭中不講武德,偷偷的或者是無底線的使用人工智能,那麼這個堅守底線的一方不但會失去競爭優勢,而且你繼續堅持這個底線也變得毫無意義,因為對手的破防實際上就等於人類安全底線已經被打破了,你這一方就是維持也沒有意義了。那麼一旦人類從這個環路中撤出來,那麼人工智能威脅人類安全的這個奇異點也就到來了。
石山在《菁英論壇》表示,這個前景確實是非常可怕,而且關鍵的問題不是說這個事情會發現在未來十年二十年,關鍵的問題是就近在眼前,就是說武器系統的自我應用,AI的自主決策,現在其實已經開始了。比如我們舉個例子,以色列的那個鐵穹防御系統,它是一個防守系統,但是如果由人類來控制,你的速度根本就不可能完成任務,它必須由一個超級電腦來控制。它雖然只是一個防守系統,還不是一個進攻系統,但是這說明武器的人工智能自主運用已經可以做到,也就是說,下一場戰爭如果是一場大型的戰爭,很可能這個問題就突破了。因為只要有一個人用,大家就一起全都開始用。
面臨中共威脅 美國AI發展激進派得勢
石山在《菁英論壇》表示,最近我看了一篇文章,談到美國矽谷一些AI新創公司的這些人,他們非常抱美國國防部,說你們國防部整天說AI很重要,但是你們的重視都是表面的,實際上國防部的訂單給矽谷的很少。就是說美國軍方對AI的投入其實是非常不足的。夏洛山在《菁英論壇》表示,美國實現在每年軍費預算要八千八百多億美元,遠遠超出中共三倍多。但是五角大樓就有人認為,很多錢花在了不重要的事情上,而有些極其重要的事情卻沒有得到應有的重視。2021年五角大樓的一個軟體開發負責人叫夏蘭(Nicolas Chaillan),他宣布辭職。他的理由就是無法忍受看到中共在人工智能領域超越美國,他的辭職是為了抗議美國軍隊技術轉型太慢。他認為中共在人工智能機器學習和網路能力這方面的進步,正在走向全球主導地位。他認為軟件實際上比硬件更重要,比一些先進的戰鬥機還要重要,他認為就是對人工智能倫理的這種廣泛的爭論,拖慢了美國的發展速度。而相比之下,中共卻在不顧道德的情況下,對人工智能進行大規模投資,那麼這種競爭的後果當然是可想而知了,美國就有可能被甩在後面。
最近五角大樓的風向可能有些改變。前不久空軍部長肯德爾(Frank Kendall)說,在人工智能參與的武器系統中,如果放入人類決策者這個環節,就會導致輸掉戰爭,因為在如此快速運轉的系統裡邊,人的干預與機器相比簡直太慢了,其結果將會導致有人系統的失敗。言外之意就是要想贏得戰爭,現在就是掙脫這個倫理束縛的時候了。像美國空軍部長這種能夠決定裝備發展的重量級人物,已經表達了這種觀點,他應該是代表了相當一部分五角大樓官員的想法。
夏洛山說,從道義上說,其實我們很佩服一些美國人對道德底線的一種堅守,但是如果以輸掉戰爭為代價的話,這種做法就有問題了。美國在印太戰略中的核心,也是美國的責任,就是維護基於規則的國際秩序,確保美國美國的盟友和夥伴不受侵略,並且在與對手的競爭中取勝,這是一個原則。如果放棄這個原則,去維護一個其它的東西,那麼會導致一個對美國非常不利的後果。
新唐人、大紀元推出的新檔電視節目《菁英論壇》,是立足於華人世界的高端電視論壇,該節目將彙集全球各界精英,聚焦熱點議題,剖析天下大勢,為觀眾提供有關社會時事和歷史真相的深度觀察。
本期《菁英論壇》全部內容,敬請線上收看。
《菁英論壇》製作組
(責任編輯:劉明湘)
推薦視頻