《有冇搞错》。2月16日。
你有听过AI是如何改变未来的吗?别担心,你并不是唯一一个担心被机器人统治的人。但是,让我们来看看AI对我们的未来社会到底会带来什么样的影响吧!或者说,让我们来看看到底哪些工作会被机器人抢走,让人类继续无所事事吧!(当然,这是玩笑话,但是AI对未来的影响是非常严肃的问题,我们必须认真对待。)
刚刚这段文字,不是我写的,是ChatGPT写的。这个ChatGPT,是美国硅谷OpenAI公司推出的人工智能对话平台,向社会公开。我注册了一个帐号,说我要写一个关于AI的文章,开头要让人感兴趣,让它帮我写个开头。所以第一段,就是它帮我写的。大家觉得如何?
我们今天谈AI,人工智能。首先我承认,我其实不是人工智能专家,甚至都不是电脑专家,经常被电脑搞得很头痛。所以今天这个节目,可以说是一个外行,从看热闹的角度,和大家谈一下人工智能的发展,和对未来的冲击。
十多年前,看了杰夫‧霍金斯(Jeff Hawkins)的《创智慧》,英文书名是“On Intelligence”,我看的是台湾出版的中文版。那本书对我理解人工智能,有很大帮助。杰夫本人是神经学家,也是一个电子科技人,创办了掌上机Palm,有几年这个机器非常火,后来被蘋果的iPod和iPhone给超越了。杰夫在书里面谈到的人工智能AI,对我启发相当大。
他首先去定义什么是智慧。他认为,智慧就是人类大脑中储存的数据,加上对这些数据的连结方式。换到电脑中,就是数据,和搜索引擎的联合合作。当然这是一个非常初步的说法。比如说人类听到狮子吼,这个声音的数据以前就在大脑中了,但这个不是智慧,只有和“危险”这个概念的数据连结的时候,才是智慧。杰夫是从人类大脑运行模式下手,延伸到机器的运作模式。所以,关键的问题是,机器如何把“狮子”和“危险”这两个概念的相关数据连结在一起。
十多年前,这还是一个相当不容易的工程,但实际上已经有不少突破了。经过了十多年的发展,现在电脑已经可以在很大程度上做出这样的连结。这就是ChatGPT这个人工智能对话所体现出来的一些“智慧”。
基本上,GPT就是通过某种运作软件,对电脑的记忆系统进行训练,最后创造出新内容。比如谷歌搜索,本身还不是AI,因为谷歌给你的只是网络上现有的数据,它搜索出来给你,它没有创造出新的内容。但ChatGPT不同,它搜索数据之后,会创造新内容出来,比如我们开头读的那段文字。
现在AI已经发展到相当惊人的程度了,不光是文字写作,还有作曲、作画、写信,甚至动漫等等,都可以通过AI帮助。现在美国市面上已经有不少由AI帮忙写作的小说在出售了,而且据说卖得还很不错。只要人类给出一些关键的要点,比如人物,大致情节,写作风格等等,AI就可以自行去创作了。比如说有个超级英雄,叫做石山,发现了一个坏人叫做土山想要破坏地球,石山最后阻挡了土山,要用悬疑风格。大概两个小时,AI就可以写完一篇小说,石山就成了英雄主角了。
ChatGPT之所以大热,因为有人用它去参加考试,居然可以获得不错的成绩,写论文也能获得教授的赞许。所以,在未来我们还需要努力吗?还会有多久,这些聪明的机器就能彻底取代我们呢?
这不是我一个人的担忧。伊隆‧马斯克(Elon Musk)也发出了警告,他认为AI对未来人类的威胁,可能已经超过了核武器了。以我的理解,这恐怕不是危言耸听。
决定AI发展的,主要有三个因素:一个是算法,就是运算方式,也就是软件;一个是演算力,这是电脑功能、速度、容量等等结合的结果;另一个是大数据。现在的机器学习,本质上就是电脑本身通过在数据这个大海洋中去自学习,然后得出自己的结论来。
我们来给ChatGPT出一个题:
【问】自动驾驶汽车遇到无法避免的情况,必须在两个选择中做出一个,它应该撞向婴儿车,还是撞向街边行走的老人?
【答】这个问题其实牵涉到伦理和道德的问题,因此很难得出一个明确的答案。然而,许多自动驾驶汽车的制造商和编程者都倾向于使用最小伤害原则(The Principle of Least Harm)来处理这种情况。
简单来说,最小伤害原则是指自动驾驶汽车应该尽可能选择对人类造成最小伤害的方案。这可能意味着撞婴儿车的风险更小,但这并不是绝对的。这种决定取决于许多因素,例如车速、路况和撞击的角度等等。
总的来说,这个问题的答案非常复杂,也取决于很多不同的因素。无论如何,我们希望这种情况不会发生,自动驾驶汽车的技术和安全措施能够继续改善,最终能够减少交通事故对人类造成的伤害。
大家都看得出来,这是一个故意刁难的问题,因为同样问题去问人,恐怕也很难获得满意的答案。我想要提出的是,我们这个世界,除了机械的理性逻辑外,还存在道德和伦理的问题。上述那个问题,有研究机构也曾经在不同国家对不同的人群提出过。有的国家,比如东亚,会选择避开老人,因为东亚有孝道文化,有敬老的传统。但在有些国家,会做出价值最大化的选择,婴儿未来对世界对社会贡献最大,所以应该避开婴儿车。
所以我们再问ChatGPT一个问题:
【问】AI具有道德判断吗?
【答】目前的AI尚未具备道德判断的能力,它们只能根据事先设定好的规则和指令执行任务。但是,未来的AI可能会透过深度学习等技术不断学习和进化,拥有更高层次的智能和判断能力,也有可能被赋予道德判断的能力。然而,要让AI具备适当的道德判断能力,需要透过良好的设计、严格的监督和评估,以及深刻的伦理思考。这个意思是,以后,机器可能会有自己的伦理和道德原则,会有自己的价值观。
在人工智能的世界中,科学家认为可能存在一个奇点,就是关键点的意思。我的理解是,在这个点之前,AI需要有人的指令,才能做出相应的判断和行动反应,而在这个点之后,AI可能会根据事先设定的某种原则,自动做出判断和行动反应。
而伊隆‧马斯克担忧的,当然也是我害怕的,是在这个奇点之后会发生什么。过去两三百年,人类有不少思想者发出警告,各种关于机器控制了人,或者电脑控制了人类的作品,层出不穷。其中最有名的一个,就是《黑客帝国》。在《黑客帝国》中,人类成了“想像力”的电池,被机器储存在培养液的大罐子里。逃离出来的人类,只能在深深的地下世界,和那个机器智慧体进行殊死搏斗。
这个电影告诉大家说,一开始,人类对AI的出现非常高兴,因为它解决了我们很多问题,但很快奇点到来了,AI越来越发达,最后把人类当成了阻碍进步的障碍了。
大部分人都并不相信这个未来,或许,我们距离那个奇点还有很远很远。像一位英国作家预测的那样,需要2.5亿年。
但其实,我们距离这个奇点很可能并不需要很长的时间。
我们举一个例子:战争。
现在各国都在研究人工智能在军事中的应用。比如说现代的先进导弹,我们称之为聪明弹,是因为它可以自动追踪目标,人类把它放出去,它自己去追踪目标。当然,人类仍然可以操纵它的行动。如果是双方都用聪明弹,那谁快一秒钟,谁就胜利了。但随着竞争越来越激烈,人工智能将会代替人类的大脑去做出判断,因为它快得多,因此最后可能将越来越多的决定权交给AI。
我觉得,下一场的大型战争爆发,我们将会看到由AI指挥的作战机器人参加战斗。一旦这个情况出现,我们可能被迫把决策权交给AI,也就是交给机器了。
原先我们认为,机器只能从事重复性的工作,创作性的工作还是必须由人类来完成。但我们看到阿法狗战胜了李世石之后,其实就已经知道这个时代已经过去了。未来是AI对付AI的时代了。
人类担忧的那个奇点,就是当AI拥有了自己的价值观,并且可以自己改善自己的程序,甚至通过对制造设备的控制,改善自己的硬件系统的那个时刻。
一旦这个时刻来临,人工智能的机器,将以我们人类无法想像的速度去改变这个物理上的世界,包括人工智能本身。
现在,所有国家的所有决策者,几乎都非常明白一个事情,就是:谁控制了AI,谁将控制未来。美国知道,欧洲知道,中国知道,俄罗斯也知道。那么如何去竞争呢?落后的恐惧,或者失去未来的恐惧,看来将迫使所有这些国家,或者那些想要拥有未来主导权的人群,去加速AI的进化和发展。而很明显的,就是谁能率先发展出能够设计改善AI系统的AI,将获得未来最大的超越距离。而这个,却恰恰是我们需要恐惧的事情。
(责任编辑:李红)