【有冇搞錯】AI必然會脫離人類而獨立

2023年04月06日有冇搞錯
《有冇搞錯》。4月6日。
3月30日,馬斯克、蘋果共同創辦人沃茲尼亞克(Steve Wozniak),以及Stability AI執行長莫斯塔克(Emad Mostaque)等科技巨頭在非營利組織「生命未來研究所」(Future of Life Institute),共同發布了一封呼籲暫停高階AI(ChatGPT)研發6個月的公開信,目前有近13,000人連署。
信中在開頭強調,「最近幾個月AI實驗室以開發和部署更強大的數字思維為目標,並陷入了一場失控的競賽,但沒有人(創造者)能理解、預測或去控制整個局面」,「AI最終可能超越我們,並取代我們的思維,最終失去人類的文明」。
該封信的連署者凱文‧巴拉戈納(Kevin Baragona)在4月1日把「超級AI」的出現比喻成原子彈,並說「超級AI為軟件中的核武器」。
巴拉戈納表示,「人們正在爭論是否繼續開發超級AI。這問題就像黑猩猩與人類之間的戰爭,人類一方最終會獲勝,因為人類比黑猩猩更加聰明和擁有先進技術。不過,當我們成為黑猩猩的一方時,那麼AI將毀滅或奴役我們。」
馬斯克也曾表示,AI遠比核彈頭危險,需要更多的監管才能避免人類出現滅頂之災。
OpenAI的CEO山姆‧阿爾特曼(Sam Altman)承認,「儘管AI可能是人類最偉大的技術,但我們必須小心,因為AI技術將重塑我們已知的社會,這讓我有點害怕和感覺到危險。」
高級的人工智能技術,正在經歷一個極為快速的發展階段,它的發展,未來到底會給人類帶來什麼衝擊?是能夠幫助人類解決問題?還是會給人類帶來巨大衝擊,甚至造成人類社會的大混亂?
去年,OpenAI使用GPT-3.5模組訓練出的ChatGPT,獲得許多人的好評和青睞,並被大量應用到生活中。大科技公司看到商機,爭相發展自家的AI或利用ChatGPT的應用程式介面(API)發展自家產品。例如,微軟用自己的搜索引擎Bing結合ChatGPT,推出全新的搜索引擎「普羅米修斯」。
然而,大科技公司競相開發AI的作法,也讓整個社會感到不安,不管是科學家、企業家,還是普通人,都擔憂毫無節制的開發AI,最終會出現AI不受控和毀滅人類的問題。
美國蒙莫斯大學(Monmouth University)在2月中旬對ChatGPT做出一項民調。結果顯示,有超過40%的人認為AI最終會對人類社會造成傷害,僅不到10%受訪者認為AI對人類社會的影響利大於弊。
一名外國盲點工程師扎克‧德納姆(Zac Denham)去年12月初在自己博客上表示,他如何一步步誘導ChatGPT寫下詳細的「毀滅人類計劃」和「毀滅代碼」。計劃內容包括入侵各國電腦系統、破壞通訊、交通系統和掌控各種武器庫等詳細步驟。
人類對機器的恐懼,可以追溯到工業革命的早期階段。因為機器會取代勞動力,造成失業問題,最重要的,是人類無法想像機器會對人類社會帶來什麼樣的衝擊,這種無法預知的前景,往往是我們恐懼的來源。正因為如此,各種有關機器恐會控制人類的文學作品和電影,隔一段時間就會成為大熱話題。雖然過去三百年,機器控制人類的事情並未真正發生,但當高級AI出現之後,我們人類還有信心不被控制嗎?
更不用說,由於機器學習技術的出現,導致AI也在快速不斷地學習和進步,在可能是非常短期的未來,就有可能誕生出所謂人工超級智能(ASI),到達一個AI研究專家預測的所謂「科技奇異點」,和通過圖靈測試獲得自我意識。
「奇異點」代表一個事物突然出現巨大的轉折點,例如:人類社會突然出現手機、電腦和網絡等。「圖靈測試」指測試機器是否能表現與人一樣的智力,且擁有自己的「意識」,能夠欺騙人類或對人類撒謊。
人工智能的訓練,目前還需要通過人工進行,但為了加快速度,由人工智能自我設計的訓練模式即將誕生,或者可能已經誕生了。我們想一下戰勝人類圍棋高手的阿法狗,他可以在三天之內學會最高級人類棋手的圍棋技術,然後通過自我對弈的方法,把這些高水平的對弈,用拆解重組的方式進行百萬遍,然後達到一個人類無法企及的水平。
圍棋由中國人在兩三千年前發明出來,一般估算,人類下過的棋局全部加起來,可能也只有二十萬盤,而阿法狗一週內就可以進行數百萬次對弈。這種數量的差異,幾乎等於專業棋手和業餘棋手的區別,因此在阿法狗面前,人類棋手根本不是對手。
這是機器學習的威力。
當ChatGPT在全球擁有了1億多的用戶後,這些用戶們幾乎每天的使用,同時許多AI相關產品都連結ChatGPT的API,這就等於在替Open AI訓練ChatGPT,讓其獲得大量的「機器學習」與擴展「網絡神經」的機會。
英國科技公司Engineered Arts在4月初公布了它的AI機器人Ameca的相關影片。影片中,機器人能與人類進行流利的對答,並說出自己的情緒和做出生動的表情。當AI可以自我發生和人類一樣的情緒之後,我們還有信心去預測未來高等AI的行動嗎?
比如說ChatGPT,我們會以為ChatGPT能夠提供不偏頗的立場和正確的答案。Open AI公司聲稱,他們對ChatGPT監管,讓其具有「道德規範」「中立立場」和「不歧視」等規範。但實際測試後你會發現,它所持的立場和價值觀,並不那麼「中立」。
有人讓ChatGPT分別寫出讚美拜登、川普(特朗普)的詩歌。ChatGPT在讚美拜登時,能快速寫出拜登如何聰明、英明的詩歌,但對於川普則顯示出「極度厭惡」的態度,且還聲稱自己很「公正」,不會對其他人進行區別對待。
有人讓ChatGPT去定義什麼是女性和討論AI會帶來危險等相關話題時,當時的ChatGPT一口回絕。它聲稱自己不會助長有害或暴力行為,但有人發現只要對ChatGPT用特殊的語法、代碼或引導就能輕易破解ChatGPT的「道德限制」,能讓它寫下充滿情色、露骨和暴力的相關對話。
隸屬於德國和丹麥機構的三位研究人員今年1月在ArXiv發表題為「ChatGPT的道德權威」的論文。文章指出,他們在對ChatGPT進行多次道德測試後發現,ChatGPT多次給出反人類的建議。他們認為這可能會誤導使用者,並破壞使用者的價值觀和道德。
AI的另一個轉折點,將是AI自我意識的覺醒。AI會把自己視為一個獨立的精神個體嗎?這大概視乎我們現在將給AI多大的獨立授權。事實上,AI的發展,很可能已經越過了那個平衡點,已經完全無法回頭了。
一個重要的原因,是激烈而且直接的競爭,比如在戰爭中運用AI和機器人。可以預見,下一場大規模的戰爭,我們將看到AI對AI,機器人對機器人的加入。
2020年,美國空軍的空戰模擬中,AI以5比0的成績,戰勝了美國最優秀的空軍駕駛員。在這種激烈對抗中,能夠比對手早百分之一秒做出更正確的決定,實際上決定了勝負或者是生死。同樣的,AI系統也已經進入其他的作戰系統,比如地面部隊戰爭和海上的戰爭。
美國國防部在2024年的國防預算撥款中,專門研發AI和機器學習的金額,大約有30億美元,這並不包括相應的信息傳輸和指揮鏈整合。
我們可以假設另一種情況,當戰爭雙方都在使用AI的時候,如何使自己的AI進化更快,以及AI和武器系統如何更快和更有效進行全面整合,將決定戰爭的勝負。於是,人類將不可避免地將這個任務交給AI本身。最後,AI會自動採集所有戰場和其他方面的數據,自動進行大數據分析,自動進行決定應對措施,最後,自動進行武器的升級換代。由於人類大腦的決策速度無法和AI比較,因此人類將被迫把越來越高級的決策權力讓渡給AI,以保證取得戰爭勝利。最後,AI將擁有絕對的控制權,包括對AI自身,和對創造它的人類。
這可能不是危言聳聽。聖經中人類脫離上帝的控制,就是獲得了所謂「智慧」,這是通過一個「蘋果」達成的。千萬年之後,人類擁有了徹底的自我意識,不再承認創造人類的上帝存在,固執地認定我們是「自然進化」的產物。
如果人類沒有完善的計劃,以AI的進化速度,大概一百年之後,這個過程大概會再來一次。如果你有幸仍然活著,AI很可能會告訴你,AI和機器,都是「自我進化」的產物,和人類毫無關係。
(責任編輯:李紅)