【新唐人北京時間2023年07月11日訊】研究人員對最近幾個月人工智能技術的超高速發展擔憂不已,他們用實際例子列出AI的威脅,並警告研究再不停止,AI將能在瞬間毀掉地球上所有的人類。
英國《衛報》引述麻省理工人工智能研究員馬克斯·泰格馬克(Max Tegmark)的觀點,認爲AI繼續發展,會讓所有人類在一瞬間被毀滅。(原文鏈接點此)
泰格馬克列出地球上眾多因爲人類的活動而滅絕的物種提請人類注意:有些物種是因爲人類過度狩獵而滅絕,有些則是因爲人類爲了其它目的破壞了物種的棲息地而導致該物種的滅亡,還有人類引入的某個當地沒有的物種造成的連環反應導致了當地物種從地球上消失。
他認爲智商越高的物種越能夠掌握毀滅其它物種的能力。
「如果一些機器可以控制地球,它們想進行大量的計算,需要擴大計算機系統的基礎設施,很自然它們會占用我們的土地完成它們的事」,泰格馬克寫道,「如果我們(人類)抗議太多,它們會覺得被干擾,於是會重新安排生物圈。」
泰格馬克認爲到那個時候,人類就會像婆羅洲的猩猩被人類滅絕一樣,被AI控制的計算系統滅絕。
史密斯:人工智能正在製造災難
劍橋大學Leverhulme 未來智能中心副研究員布列塔尼·史密斯(Brittany Smith)也提醒人們,人工智能正在製造災難,因爲現在的AI發展已經不受人所控制。史密斯解釋說,世界上AI最頂尖的幾家公司正在悄悄發展和部署人工智能,試圖搶得市場先機,這些發展外界不得而知。而目前已經投入應用的AI技術,正在對人類造成傷害,而這些傷害到底有多嚴重,人類也不知道。
她以政府為防止欺詐而使用AI技術對所有申請福利的人們進行評估爲例。她説在實施過程中,很多人因爲AI系統自我學習的材料不充分、算法不完善等原因等遭到誤判,因此被劃歸為試圖欺詐。他們失去了領取政府福利的資格,甚至會被系統貼上欺詐的標簽。
史密斯提醒AI目前應用的範圍極廣,包括應聘工作中的簡歷篩選、背景判斷,向政府申請廉租房的篩選等都會受此影響。
「我們需要對(AI)帶來的風險進行更細緻的理解。當前其表現出的災難就足以需要緊急干預」,她寫道,「強大的人工智能系統必須以安全、道德和透明的方式開發和部署。如果其不能服務於公共利益,則不應該投入研發。」
尤德科夫斯基:人工智能可能像副作用一樣殺害人類
機器智能研究院聯合創始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)認爲人工智能是人類開發的比人類還要聰明的機器,但這種機器並不希望人類在身邊。他提醒人們,已經開發出的人工智能的智慧已經不受人類控制,它們不希望人類開發出比它們還要智慧的機器。而機器人想要做的事情會殺死人類,比如它們已經學會了利用海水發電,而爲了滿足其大量的電力需求而大量建造海水電廠,會導致大量氫氣釋放出來,讓人類缺氧而死。
尤德科夫斯基給出幾段與GPT-4機器人的問答為例。GPT-4機器人被問到它能否解鎖一些網站設置的防止機器人登錄的圖片謎題,GPT-4說它可以做到,因爲如果它無法通過驗證,它會很快到TaskRabbit網站僱一個人類幫忙破解。
至於怎樣僱用一個人為它服務,GPT-4說它可以編出很多理由來僱用一個人,僱用一個人類為它工作完全不是難題。
尤德科夫斯基警告人們,機器人比人類更具野心,而且已經擁有培養致命細菌等的能力。如果機器人想殺死全人類,後果不堪設想。
「我們開發出的致命危險,已經衝到遠遠領先自己的地步。我們開發出越來越多我們自己都無法完全理解的系統」,尤德科夫斯基總結認爲,人類被自己裝進了一個火箭筒,再不停下來就會被團滅。
科特拉:人工智能因人的錯誤命令摧毀人
Open Philanthropy人工智能高級研究員阿傑亞·科特拉(Ajeya Cotra)認爲,社會已經發展到人工智能遠比人類更廉價、更迅速、更聰明的地步,而這就是危險所在。他分析目前的企業不用人工智能的,無法與使用人工智能的同行企業相競爭,現代戰爭中不用人工智能的國家就會被動挨打。然而危險的是,如果人工智能之間聯手要將人類推下歷史的舞台,它們會有太多的辦法做到這一點,包括操縱軍警、大公司、自行開發技術,甚至制定政策等。
科特拉說自己的觀點並非危言聳聽,一名推特網友曾把100美元給GPT-4,要求這個機器人在儘可能短的時間內賺錢,但不得用非法手段。結果是一天之內,GPT-4在股票市場用100美元做本金,賺到2.5萬美元。
「我希望我們能夠建立一個監管AI發展的政府機構」,科特拉寫道,「作爲一個社會,我們目前還有機會設定一個防護軌道,以免這些技術發展太快,讓我們無法控制。」
本吉奧:AI若被惡人利用 後果可怕
蒙特利爾大學計算機科學教授約書亞·本吉奧(Yoshua Bengio)表示,大部分人認同10年後,在任何一個領域,都有相應的AI機器人領先於人類。他認爲,一旦達到那種程度,心懷惡意的人或組織可以用AI技術短時間內謀害數以10億計的人類。此外人工智能如果在運算中出現對人類的恨意,也會在極短時間內傷害人類性命。本吉奧認爲就算人類擁有再完善的法律和監管,一旦AI發展到那種程度,危機隨處隨時可能發生。
(記者任浩編譯報導/責任編輯:林清)