《有冇搞错》。4月6日。
3月30日,马斯克、蘋果共同创办人沃兹尼亚克(Steve Wozniak),以及Stability AI执行长莫斯塔克(Emad Mostaque)等科技巨头在非营利组织“生命未来研究所”(Future of Life Institute),共同发布了一封呼吁暂停高阶AI(ChatGPT)研发6个月的公开信,目前有近13,000人连署。
信中在开头强调,“最近几个月AI实验室以开发和部署更强大的数字思维为目标,并陷入了一场失控的竞赛,但没有人(创造者)能理解、预测或去控制整个局面”,“AI最终可能超越我们,并取代我们的思维,最终失去人类的文明”。
该封信的连署者凯文‧巴拉戈纳(Kevin Baragona)在4月1日把“超级AI”的出现比喻成原子弹,并说“超级AI为软件中的核武器”。
巴拉戈纳表示,“人们正在争论是否继续开发超级AI。这问题就像黑猩猩与人类之间的战争,人类一方最终会获胜,因为人类比黑猩猩更加聪明和拥有先进技术。不过,当我们成为黑猩猩的一方时,那么AI将毁灭或奴役我们。”
马斯克也曾表示,AI远比核弹头危险,需要更多的监管才能避免人类出现灭顶之灾。
OpenAI的CEO山姆‧阿尔特曼(Sam Altman)承认,“尽管AI可能是人类最伟大的技术,但我们必须小心,因为AI技术将重塑我们已知的社会,这让我有点害怕和感觉到危险。”
高级的人工智能技术,正在经历一个极为快速的发展阶段,它的发展,未来到底会给人类带来什么冲击?是能够帮助人类解决问题?还是会给人类带来巨大冲击,甚至造成人类社会的大混乱?
去年,OpenAI使用GPT-3.5模组训练出的ChatGPT,获得许多人的好评和青睐,并被大量应用到生活中。大科技公司看到商机,争相发展自家的AI或利用ChatGPT的应用程式介面(API)发展自家产品。例如,微软用自己的搜索引擎Bing结合ChatGPT,推出全新的搜索引擎“普罗米修斯”。
然而,大科技公司竞相开发AI的作法,也让整个社会感到不安,不管是科学家、企业家,还是普通人,都担忧毫无节制的开发AI,最终会出现AI不受控和毁灭人类的问题。
美国蒙莫斯大学(Monmouth University)在2月中旬对ChatGPT做出一项民调。结果显示,有超过40%的人认为AI最终会对人类社会造成伤害,仅不到10%受访者认为AI对人类社会的影响利大于弊。
一名外国盲点工程师扎克‧德纳姆(Zac Denham)去年12月初在自己博客上表示,他如何一步步诱导ChatGPT写下详细的“毁灭人类计划”和“毁灭代码”。计划内容包括入侵各国电脑系统、破坏通讯、交通系统和掌控各种武器库等详细步骤。
人类对机器的恐惧,可以追溯到工业革命的早期阶段。因为机器会取代劳动力,造成失业问题,最重要的,是人类无法想像机器会对人类社会带来什么样的冲击,这种无法预知的前景,往往是我们恐惧的来源。正因为如此,各种有关机器恐会控制人类的文学作品和电影,隔一段时间就会成为大热话题。虽然过去三百年,机器控制人类的事情并未真正发生,但当高级AI出现之后,我们人类还有信心不被控制吗?
更不用说,由于机器学习技术的出现,导致AI也在快速不断地学习和进步,在可能是非常短期的未来,就有可能诞生出所谓人工超级智能(ASI),到达一个AI研究专家预测的所谓“科技奇异点”,和通过图灵测试获得自我意识。
“奇异点”代表一个事物突然出现巨大的转折点,例如:人类社会突然出现手机、电脑和网络等。“图灵测试”指测试机器是否能表现与人一样的智力,且拥有自己的“意识”,能够欺骗人类或对人类撒谎。
人工智能的训练,目前还需要通过人工进行,但为了加快速度,由人工智能自我设计的训练模式即将诞生,或者可能已经诞生了。我们想一下战胜人类围棋高手的阿法狗,他可以在三天之内学会最高级人类棋手的围棋技术,然后通过自我对弈的方法,把这些高水平的对弈,用拆解重组的方式进行百万遍,然后达到一个人类无法企及的水平。
围棋由中国人在两三千年前发明出来,一般估算,人类下过的棋局全部加起来,可能也只有二十万盘,而阿法狗一周内就可以进行数百万次对弈。这种数量的差异,几乎等于专业棋手和业馀棋手的区别,因此在阿法狗面前,人类棋手根本不是对手。
这是机器学习的威力。
当ChatGPT在全球拥有了1亿多的用户后,这些用户们几乎每天的使用,同时许多AI相关产品都连结ChatGPT的API,这就等于在替Open AI训练ChatGPT,让其获得大量的“机器学习”与扩展“网络神经”的机会。
英国科技公司Engineered Arts在4月初公布了它的AI机器人Ameca的相关影片。影片中,机器人能与人类进行流利的对答,并说出自己的情绪和做出生动的表情。当AI可以自我发生和人类一样的情绪之后,我们还有信心去预测未来高等AI的行动吗?
比如说ChatGPT,我们会以为ChatGPT能够提供不偏颇的立场和正确的答案。Open AI公司声称,他们对ChatGPT监管,让其具有“道德规范”“中立立场”和“不歧视”等规范。但实际测试后你会发现,它所持的立场和价值观,并不那么“中立”。
有人让ChatGPT分别写出赞美拜登、川普(特朗普)的诗歌。ChatGPT在赞美拜登时,能快速写出拜登如何聪明、英明的诗歌,但对于川普则显示出“极度厌恶”的态度,且还声称自己很“公正”,不会对其他人进行区别对待。
有人让ChatGPT去定义什么是女性和讨论AI会带来危险等相关话题时,当时的ChatGPT一口回绝。它声称自己不会助长有害或暴力行为,但有人发现只要对ChatGPT用特殊的语法、代码或引导就能轻易破解ChatGPT的“道德限制”,能让它写下充满情色、露骨和暴力的相关对话。
隶属于德国和丹麦机构的三位研究人员今年1月在ArXiv发表题为“ChatGPT的道德权威”的论文。文章指出,他们在对ChatGPT进行多次道德测试后发现,ChatGPT多次给出反人类的建议。他们认为这可能会误导使用者,并破坏使用者的价值观和道德。
AI的另一个转折点,将是AI自我意识的觉醒。AI会把自己视为一个独立的精神个体吗?这大概视乎我们现在将给AI多大的独立授权。事实上,AI的发展,很可能已经越过了那个平衡点,已经完全无法回头了。
一个重要的原因,是激烈而且直接的竞争,比如在战争中运用AI和机器人。可以预见,下一场大规模的战争,我们将看到AI对AI,机器人对机器人的加入。
2020年,美国空军的空战模拟中,AI以5比0的成绩,战胜了美国最优秀的空军驾驶员。在这种激烈对抗中,能够比对手早百分之一秒做出更正确的决定,实际上决定了胜负或者是生死。同样的,AI系统也已经进入其他的作战系统,比如地面部队战争和海上的战争。
美国国防部在2024年的国防预算拨款中,专门研发AI和机器学习的金额,大约有30亿美元,这并不包括相应的信息传输和指挥链整合。
我们可以假设另一种情况,当战争双方都在使用AI的时候,如何使自己的AI进化更快,以及AI和武器系统如何更快和更有效进行全面整合,将决定战争的胜负。于是,人类将不可避免地将这个任务交给AI本身。最后,AI会自动采集所有战场和其他方面的数据,自动进行大数据分析,自动进行决定应对措施,最后,自动进行武器的升级换代。由于人类大脑的决策速度无法和AI比较,因此人类将被迫把越来越高级的决策权力让渡给AI,以保证取得战争胜利。最后,AI将拥有绝对的控制权,包括对AI自身,和对创造它的人类。
这可能不是危言耸听。圣经中人类脱离上帝的控制,就是获得了所谓“智慧”,这是通过一个“蘋果”达成的。千万年之后,人类拥有了彻底的自我意识,不再承认创造人类的上帝存在,固执地认定我们是“自然进化”的产物。
如果人类没有完善的计划,以AI的进化速度,大概一百年之后,这个过程大概会再来一次。如果你有幸仍然活着,AI很可能会告诉你,AI和机器,都是“自我进化”的产物,和人类毫无关系。
(责任编辑:李红)