从与机器赛跑到第二次机器革命
人工智能革命被称作第四次工业革命。第一次工业革命是蒸汽机革命,第二次工业革命是电力革命,接下来是以电脑、互联网为主的第三次工业革命,它是一场信息化革命。然后终于来到第四次工业革命。
第四次工业革命是什么?简单概括一下,它同前面不同的地方在于技术融合。融合是一个关键词,模糊物理、数字、生物领域之间的界限,出现了网络-物理系统。所以我们讲数字孪生,在现实世界有一个,在数字世界一定有另一个。此外,新兴技术在许多领域取得突破,包括机器人、人工智能、纳米技术、量子计算、生物技术、物联网、工业物联网、第五代5G通讯技术、增材制造/3D打印和自动驾驶汽车等。
工业革命发展历程:从蒸汽动力到网络-物理系统
这些技术几乎颠覆了每个国家的每个行业。这些变化的广度和深度预示着整个生产、管理和治理系统的转变。概括起来,我们把它们叫做第四次工业革命。
但这只是一个分法,其实人类发明各种各样的说法,对我们所面对的现象进行不同的划分。我再来引入另一个划分,就是有关机器和人的关系问题。
麻省理工学院的两位研究者写了一本书叫《第二次机器革命》,它给了我们另一种分法。所谓的第二次机器革命一定是对应着在前面有第一次机器革命,这两个作者之前写的书叫做《与机器赛跑》,从书名来看,那个时候人还有一种主体性,还有一种动力说让我们和机器赛跑,说不定我们就打败它了。那个时代,我们认为也许可以造出一个击败国际象棋冠军的机器人,但是不可能有一个程序可以击败围棋,因为围棋号称比国际象棋复杂太多了,所以我们觉得还可以赛跑。今天我们说“与机器赛跑”肯定过时了,已经没办法跟机器赛跑了。总不能说人工智能程序下一个要攻破的目标是麻将?
《与机器赛跑》、《第二次机器革命》Erik Brynjolfsson / Andrew McAfee 著
所以两位作者现在写的新书叫做《第二次机器革命》。第一次机器革命讨论的人与机器的关系是这样的,那个时代虽然开启了机器革命,但机器实际上是由人类控制的,劳动力也因此显得“更有价值、更重要”。 人类和机器是互补的关系 。有的事我们干得更好,有的事机器干得更好,双方可以互补。 到第二次机器革命的时候,这个关系可能不是互补关系,而是替代关系 。
怎么突然之间形势就变得如此急转直下?我们讨论一下逻辑问题。这两位作者认为基本逻辑就三个。
第一个叫指数级增长,很多例子证明,今天的东西是指数级增长的,导致一个想象力的极限问题,导致一个敏感的初始值问题。
第二个叫数字化进步。我们这么多年来通过数字化把大量的信息积攒起来,到底有没有产生智慧?如果能够把这个智慧挖掘出来会怎么样?作者之一很有意思,把一些谷歌检索的关键词做成一个模型,用这个模型预测三个月之内美国某个地方房价的增长,发现预测的结果相当精准。将数字化信息转换成智慧,他们把这叫做数字化的进步。
第三个叫做组合式创新。有一句谚语说,摘取路边低垂的果子。为什么低的果子都被摘了,因为人走过去随手就摘了,高处的摘不到,只有爬梯子。有人问是不是创新有一天就终止了?但创新并不是摘果子,而是搭积木,每出现的一个新创新所能够带来的创新组合是无限增长的。多增加一个创新并不是摘掉了一个果子,而是增加了未来重组式创新的无限机会。因此创新永远不会停止。
这三点就是他们所谓的第二次机器革命的逻辑,正是因为这样的逻辑,我们突然间不能够简单地跟机器赛跑了。
▲底层信仰令精英群体的观点产生分裂
在这种情况下,大家非常在意的就是工作的未来。将来可能没有工作,所有人都进入无薪时代,真正有工作的人都是贵族,然后由贵族养活大量的没有工作的普通平民。这个观点的突出代表是历史学家尤瓦尔·赫拉利,在前几年一本极为流行的书中这么写,把大家吓出一身冷汗。
在2018年10月举办的“2018信睿论坛”上,赫拉利提出技术用温水煮青蛙的方式,让人放弃了自我选择。而21世纪人工智能的革命将会创造无用阶级,不用工作、没法工作,对经济、政治系统来说毫无用处
赫拉利认为,未来的人工智能会导致无用的人类,21世纪最重要的不是反抗剥削而是反抗无用。 无用的问题可能比剥削严重很多倍,工作在很多时候是每一个人的尊严所在,是他的价值所在。如果他没有工作,这个人怎样还是一个人?这要划一个很大的问号。我们不能想象一个世界的人都不工作了,尽管你每天都在想象如果不工作会多好,但是如果你不工作一天,会非常不自在,因为我们已经被工作所定义了。
当谈到这个东西的时候,有人不干了,代表性的人物就是李开复。李开复就出来说了,赫拉利耸人听闻,赫拉利虽然是一个历史学者,但是他不懂技术。李开复说必须停止煽动人类对于AI的恐慌,而且无用阶级这个说法本身是对人的巨大打击,不可以随便说人是无用的。因为我们是搞AI的,有些事情是AI不能干的,是人能干的。
但是李开复仅仅代表争论的一方。当讨论到AI对人类的影响,我们不针对普通人,首先因为普通人对AI也不是真懂;其次普通往往是追随精英的,我们要看人类的精英,最尖端的精英是怎么看待这个问题,因为是他们在创造未来的世界。
但是在这个问题上,人类的精英是分裂的。同样有鼓吹AI的精英出来说AI有非常大的问题,比如霍金。霍金说人工智能有可能会毁灭整个人类文明。霍金去世前特别关心的是剑桥大学的未来研究中心,他说以往人类研究历史发现的真相只有一个,人类的历史就是一部愚蠢的历史,我们能不能反过来想一下人类在什么时候能够不愚蠢?所以人们转而研究智能的未来是令人欣喜的变化。剑桥大学的未来研究中心有一个非常简单的使命,就是研究人工智能在未来会不会毁灭人类。霍金在中心开幕的时候讲了一段话,他说人工智能的发展可能帮助人类消灭疾病、消灭贫困、阻止气候变化,但也可能产生人们不愿意看到的种种后果,包括产生自主武器、造成经济灾难,以及发展出与人类发生冲突时拥有自己意愿的机器。
欧洲正在开展一些立法工作,围绕人工智能和机器人技术建立新规则。欧洲议会的议员会追问机器人会不会有电子人格,这是一个很严肃的问题。如果机器人有电子人格,我们造机器的时候一定要附加一个最后的开关,就是必须要有一个开关能够让机器人停止做某种事情。如果大家看过克拉克的著名科幻片《2001太空漫游》,对其中的人工智能电脑哈尔因为不能控制那个开关,结果把人类毁灭了。讨论到这里我们发现,如果机器有自己的人格,甚至企图对创造它的人造成伤害,我们该怎么办?这是霍金担忧的问题。
3月,欧盟有关方面与微软、IBM两家公司共同签署了《人工智能伦理罗马宣言》,该宣言指出人工智能技术应当尊重个人隐私,以可靠而无偏见的方式工作,并且考虑到所有人的需求。IBM执行副总裁认为这一举措表达了对人工智能及其社会影响的长期担忧
刚才说到精英群体观点的分裂,还有其他的代表人物,比如埃隆·马斯克。马斯克一边在研究AI,一边在谈AI的危险。他说人工智能的危险大于核武器的危险,为什么这么说呢?因为AI的能力远超出我们的想像,而且在以指数增长的速度进化。这里可以回应李开复的说法:“我们是人工智能专家,我们懂。”马斯克质问,你真的懂吗?那些所谓的AI专家,他们自以为知道的其实远比他们实际知道的多,他们以为的自己要比真实的自己聪明得多。我们每个人其实都是这样,人工智能的专家也毫不例外。
还有比尔·盖茨,他说我不理解为什么有些人对于人工智能的未来毫不担忧。
这是我说的精英的一个阵营,另外一个阵营几乎也同样强大,比如扎克伯格。在人们讨论人工智能可能造成人类末世场景的时候,扎克伯格说这种讨论是毫不负责的。人工智能领域最杰出的华人之一吴恩达说:“今天担心这些事情,好比担心火星上的人口过剩。”我特别喜欢的一个人工智能专家佩德罗·多明戈斯,在推特上引用了马斯克的话“人工智能是人类文明存在的根本风险”之后,评论道:“一句话:叹气。”他认为马斯克说得完全不对。
在AI是否淘汰人的问题上,佩德罗认为AI显然使人更聪明了
这是人类最聪明的一群大脑,如果他们在这个问题上陷入如此分裂的场景,我们作为普通人何以自处?这个问题似乎看上去是无解的,包括刚才讲的人工智能到底会毁灭工作还是创造工作。比如段永朝老师讲到厨师可以做培训机器人的工作,可是工作是有一个量的问题,如果没有大量的工作,有多少人会从厨师转变为训练机器人的厨师呢?
有关AI的争论一定是不会休止的,我们普通人应该如何自处,这是一个很严肃的问题。
事实上不光是人类的未来,或者说工作的未来,也包括机器会不会有意识等等,当我们对这些产生惶恐,问题不能得到解答的时候,其实有一个出路。这个出路就是要意识到, 这些专家之所以对未来的前景产生不同意见,不是因为他们知道什么,而是因为他们的底层信仰不一样。
为什么我强调这个观点非常重要,我最后主题会落到这里。比如那些预测我们一定会造出有意识的机器人的专家,是因为他相信一个非常基本的假设——人类在本质上是机器。如果人类是机器,我们当然最终可以建立一个有意识的机器人。而那些认为机器永远不会产生意识的人,也不是因为他是意识专家,而是因为他相信人不可能是纯粹的机械生物。
我说到这里大家可能会很疑惑,它不是一个意识问题,而是一个信仰问题。如果一旦谈到信仰问题,讨论人工智能一定要解构一些最基本的东西,不能就事论事讨论人工智能,而是要回到历史上、回到技术整个的发展历程上去解构一些最基本的东西。
▲人工智能时代必须思考的三个问题
试图从技术史上提炼,其实最终一定会回到这里,最终要解构的东西就是三个基本问题。
第一个问题,宇宙的构成是什么。从古希腊以来就争论不休的一个事情。第二个问题,我们是什么。我们是什么的问题就是人类是什么。第三个问题,不是一个集体概念,是一个个体概念,就是自我的问题,我是什么。
为什么这三个问题在今天变得如此重要,为什么我说这更多是一个哲学的思考?其实你会发现有关这三个问题的回答都不是单一答案,全部都是多重选择题。
举一个简单的例子,比如宇宙的构成,一直有两种思想流派,一种认为宇宙的构成无他,就是原子,单一的物质。从德谟克利特开始就认为,你作为一个人在这里思考,没有什么高级的,就是原子在运动,这叫一元论。另外一派人坚决不同意,说的确有原子,但是人不止是由原子构成的,总还有点别的东西。
科学家几乎都站在第一阵营,科学家认为世界的万事万物都可以还原,如果不还原,这个事就没办法解释。所以必须找到一个解释,通过还原论来讲,就一定能够找到这个物质的原因。你的爱情只不过是一些分子运动,你的意识只不过是一些神经元的缠绕,可以通过各种各样的东西来证明这一点。
很多人都坚信,快乐与痛苦主要取决于多巴胺的分泌水平,所谓的快乐只是多肽扛着多巴胺前进
但是二元论者认为这是不对的。当然这里有很多的哲学思考,为什么有的人会相信二元论,有的人会相信一元论,其实本质上我们归结为他们对现实本质的信仰是什么。
再次回到信仰问题,我们会说一元论是理性和现代的,但是这个世界上永远有人相信理性和现代的东西是不对的,还有很多东西是精神的,是原子解释不了的。这就是一元论和二元论的矛盾。哪怕我们可以证明你跟石头一样都是原子,我跟这个桌子一样都是原子;但是你可以用一个石头、用一个锤子把这个桌子彻底粉碎,毫无内疚。你用一个锤子砸在我脑袋上,你会毫无内疚吗?一元论和二元论在这里会陷入一个巨大的崩塌。
因此我想说,以上三个问题是今天人工智能时代必须思考的三个问题,而它的思考方向本质上是要讨论人类的信仰到底是什么。 人类信仰的问题以往是哲学家们的专利、是神学家们的专利,但是今天的人工智能把这个问题推到所有人面前, 你也得考虑这些问题。那些做人工智能的人尤其需要考虑这个问题,你是秉持着一种什么样的信仰在创造这个东西,因为这会决定这个东西将来会达到什么程度,会怎么样应用。