伴随着生命3.0的到来,人类想要什么样的未来?

电子说

1.3w人已加入

描述

《生命3.0》用最严密的逻辑推理和最大尺度的想象力,为读者们带来迄今为止覆盖人工智能最大范围内的所有命题,也成为湛庐文化年度大书。湛庐文化创始人、董事长韩焱亲自领读《生命3.0》一书一课,本文为文字内容,非常精彩。

大家好,我是湛庐文化的创始人韩焱,欢迎收听一书一课阅读课程第174期。今天我要为你分享的是湛庐文化策划出版的一本书,叫做《生命3.0》。

这本书对人类的未来做出了最大胆的想象,整本书都在构造对于未来生命、科技、文化和社会新的理解。这本书也对一个重要的问题进行了探索。这个问题从智人走出非洲开始,就一直伴随着人类的进化和发展,那就是:人类到底能发展到什么极限?人类到底要走向哪里?

这本书把未来生命的各种可能性,直接搬到了你的面前,为你开启了更广阔更有趣的未来画面。这些内容会让你惊叹不已,更会让你感到非常信服,因为它讲述的一切,都来源于当下科技发展的现实。

关于《生命3.0》的缘起

2015年有一个大新闻,特斯拉的创始人马斯科捐赠了1千万美元给一家创立了仅仅一年的组织——未来生命研究所。这家组织研究的是人工智能安全性,他们的目标是要保证人工智能的发展对人类的未来是有益的。他们想帮助人工智能的研究者,不只看到高科技带来的锦绣前程,还要随时关注可能给人类带来的危险。

未来生命研究所的创始人,就是《生命3.0》这本书的作者,麻省理工学院的物理学终身教授,迈克斯·泰格马克。在成立未来生命研究所之前,他已经在对平行宇宙的研究上获得了很多成就,曾经写过一本非常受欢迎的科普畅销书《穿越平行宇宙》。泰格马克和诺贝尔物理学奖得主理查德费曼师出同门,他们的老师是参与过曼哈顿计划和原子弹研究的著名物理学家约翰·惠勒,咱们现在常说的黑洞虫洞,最早就是由惠勒提出的。

未来生命研究院得到了很多社会精英和著名组织的支持,包括伟大的物理学家霍金、亚马逊、谷歌、Facebook、微软、IBM,还有研发了AlphaGo的Deepmind公司。成立仅仅两年,他们就募集到了超过1亿美元,汇聚了8000多位全世界顶级的人工智能专家,成功地让 “人工智能安全性”研究迅速在全世界成为了一场轰轰烈烈的运动。

《生命3.0》这本书就是对 “人工智能可以帮助人类发展到什么极限?帮助人类走向哪里?”这个问题,最新研究和认识的完整呈现。接下来,我从三个方面来详细为你讲解这本书。

一、生命3.0对人类意味着什么?

关于生命是什么?作者有一个崭新的视角。他认为,生命其实就是具有一定复杂性的系统,这个系统会不断复制自我。生命有硬件也有软件,硬件是生命有形的部分,用来收集信息;软件是生命无形的部分,用来处理信息。生命的复杂性越高,版本就越高,可以分为生命1.0、生命2.0和生命3.0。

生命1.0指的是,系统不能重新设计自己的软件和硬件,两者都是由DNA决定的,只有很多代的缓慢进化才能带来改变。生命1.0出现在大约40亿年前,这个地球上现存的绝大多数动植物,都处在生命1.0的阶段。

生命2.0指的是,系统还是不能重新设计自己的硬件,但是,它能够重新设计自己的软件,可以通过学习获得很多复杂的新技能。生命2.0出现在大约10万年之前,人类就是生命2.0的代表。但是,我们的硬件也就是身体本身,只能由DNA决定,依然要靠一代代进化,才能发生缓慢的改变。也就是说,生命2.0是通过软件升级来快速适应环境变化的。

生命3.0指的是,系统能不断升级自己的软件和硬件,不用等待许多代的缓慢进化。美剧《西部世界》第二季当中,觉醒了的机器人接待员就是生命3.0的代表,他们不仅能在智能上快速迭代,在身体上也能随时重新设计更换。

《西部世界》海报

说到这里,你可能会发现生命的一个巨大转变,那就是,生命可能并不需要寄存在血肉之躯里。当智能有机会从肉身的束缚当中解脱出来的时候,生命第一次有机会成为自己命运的主人,最终它就会完全脱离进化的束缚。这下问题就来了,如果生命3.0会出现,最早会在什么时间到来?对于人类是有益的还是毁灭性的?

目前大多数人工智能开发者的研究都聚焦在狭义人工智能上,像是自动驾驶汽车、会下围棋的阿尔法狗,还有谷歌助理,这一类智能只能完成一个比较狭窄的目标组,比如能下棋的不会开车,能开车的不会当助理。但是,还有一类人工智能叫做通用人工智能,我们人类能够完成的任务、学会的知识、产生的认知,这类智能都可以做到,甚至比人类做的还好。

当人类开发出这种通用人工智能的时候,就是一个触发生命3.0产生的临界点。一旦迈过了这个关键时刻,智能进化的速度就会迅速翻倍,1变2,2变4,100变200,5千变1万,这个指数级的增长速度非常恐怖,不用多久就会达到巨大的天文数字,这就是“智能爆炸”。“智能爆炸”会产生远远超过人类水平的超级通用人工智能,也就是超级智能,它就代表着生命3.0时代的到来。

有一小部分技术怀疑主义者,他们认为根本没有必要杞人忧天,超级智能没有几百年的时间是无法实现的。而大多数世界顶尖的专家们,认为超级智能会在几十年之后出现。2015年,在未来生命研究所的调查中,大概有一半的科学家认为,这个临界点会在2055年到来;而仅仅过去了两年,也就是2017年,未来生命研究所又做了一次调查,这一次,绝大多数的科学家认为,这个临界点会提前到2047年。

如果真是这样,留给我们人类思考自己未来的时间可不多了,短短的几十年时间之内,我们必须想清楚很多重大的问题。超级智能和人类的认知方式、思考方式、对生命意义和目的的理解,这些都会有巨大的不同。它的出现到底对人类是好事还是坏事,科学家们进一步分成了三派意见。

第一派叫做卢德主义者,他们认为,超级智能的出现对于人类来说,一定是坏事,他们坚决反对通用人工智能的研究和开发。19世纪英国工业革命时期,自动纺织机的出现,给工人们带来了巨大的恐慌。他们虚拟了卢德这个精神领袖,说是他带头砸毁了两台纺织机,掀起了遍布英格兰的抵抗自动纺织机取代工人的卢德运动。历史可能真的会重演,拉斯维加斯赌场的发牌员们已经举行了规模浩大的罢工,抗议赌场用机器人发牌员取代人类。

第二派叫做数字乌托邦主义者,像是谷歌的创始人拉里佩奇和未来学家库兹韦尔,就属于这个派别。他们认为,数字生命是自然进化的必然结果,人类不应该阻止或者是奴役它们,让它们自然发展,结果一定是好的。不能因为人类生命是碳基的,数字生命是硅基的,就对超级智能进行“物种歧视”。

第三派叫做“人工智能有益运动支持者”,像是马斯克、比尔盖茨、霍金和《生命3.0》的作者泰格马克,就属于这个派别。他们认为,超级智能带给人类的结果是好还是坏,要取决于人类的自主选择。人类要主动对未来进行筹划和研究,保证科技能够带给生命积极的力量。

二、伴随着生命3.0的到来,人类想要什么样的未来?

关于这个问题,最简单的答案是,不知道。就连这个世界上最顶尖的科学家们也在吵来吵去,达不成共识。你想象一下这个局面,是不是顿时就会感觉到一阵恐慌,特别像是明知道我们根本打不过的外星高级生命明天就要降临地球了,而我们根本想不出对策。所以,不仅是科学家们,我们每一个人,都应该尽快参与到解决这个时代最重要的问题当中来,一起明确人类未来的出路。

《生命3.0》这本书里总结了超级智能可能带来的12种未来,分为4种结果,看起来特别像是科幻小说的情节库。

第一种结果是人类灭绝。

最愚蠢的方式是人类自我毁灭。有科学家就曾经建议,把今天的核武器升级为“世界末日装置”,人类开启互相报复,共同赴死的模式,只要有一个国家进行核武器攻击,这个“世界末日装置”就马上启动,杀死所有人类。这个装置的目的就是要在最大程度上威慑想动用核武器的人。让他意识到,一旦发动攻击,他绝对不能自保。除此之外,人类对于生化武器和人工智能武器的研究,也可能带来人类自毁。谷歌的一部分高管联名抵制公司副总裁同意和美国军方合作,用人工智能研发武器,就是在抵制“人类自毁”的鲁莽举动。

人类毁灭还有可能是因为超级智能掌控了整个世界,成为了征服者。科幻小说《最后一个地球人》当中,外星人降临地球,成为地球的统治者,他们的目的就是要等待人类的后代变成星童,然后把孩子们带离地球。没有人知道,外星人为什么要这样做,连外星人自己都不知道为什么要这样做,但是最后的结果还是造成了地球上只剩下时日无多的老人,最后整个人类就灭绝了。

人类还可以选择比较缓慢温和的灭绝方式。就像成长起来的后辈取代老年人,而老年人安静离世。人工智能也把自己视为是人类的后裔,用这种方式自然而然取代人类。但是这种浪漫的想法,完全无法保证,在人类灭绝之后,超级智能会传承人类的天性和价值观,所以从某种意义上来说,超级智能不会真正成为人类的后代。人类还是会悲催地消失在宇宙中。

大多数人都会觉得,“人类灭绝”这个想法很恐怖,但是确实有一些人对人类感到愤怒,认为人类是愚蠢的,希望能出现一种更智慧更值得尊敬的生命形式来取代人类。电影《黑客帝国》当中的特工史密斯是一个超级智能,他在电影里说过一段话:“你们人类知道自己是什么吗?你们是病毒,你们是瘟疫,而我们人工智能就是解药。”

第二种结果是人类丧失了统治地位。

在这种情况下,人和机器的界限非常模糊。人类可以选择把自己的智能上传,也可以用科技不断升级自己的肉身。像是《黑客帝国》和《神经漫游者》这样的科幻作品,展示的就是这种自由主义乌托邦的场景。

《黑客帝国》片段

超级智能可能会成为善意的独裁者。人类知道自己生活在超级智能的统治下,但是,因为超级智能愿意满足人类的各种高级发展需求,所以,大多数人会接受被统治。

超级智能还可能成为动物园管理员,只满足人类的基本生理需求、保障人类的安全。在它的统治下,地球和人类会更加健康、和谐、有趣,就像管理良好的动物园和动物一样。

但是,在丧失了统治权的情况下,人类虽然还存在,却活得了无生趣,不能主宰自己的命运。就像是被精心喂养的火鸡,永远不会知道,哪一天太阳升起的时候,就会是自己的末日。

第三种结果是人类限制超级智能的发展。

人类社会可能会发展成平等主义乌托邦,这个地球上一切财富和能源都是大家共有的。所有专利、版权、商标、设计都是免费的,书籍、电影、房屋、汽车、服装等等,也都是免费的。人类要限制人工智能的开发,把它控制在可以服务人类的水平上。

人类会给人工智能守门人的任务,把“阻止超级智能发展”这个目标设置在它的内核里。只要这个守门人监测到有人要制造超级智能,它就会干预和破坏,比如它可以用纳米技术抹去研究者大脑中的知识和记忆。但是,守门人人工智很有可能会削弱人类的潜力,让人类的技术进步永远陷入困境。

人类也可以选择让人工智能成为自己的守护神。它无所不知无所不能,它的一切干预,都是为了最大限度提高人类的幸福感。甚至,它为了让人类拥有虚幻的掌控感,会刻意把自己的能力隐藏起来。在这种情况下,虽然人类貌似有统治权,但是实际上不存在任何的自由意志。

第四种结果是人类统治超级智能。

人类控制着超级智能,用它来创造远远超出人类想象的技术和财富,它就像人类的奴隶;但是,它在能力上远远胜过人类,所以,就像是被奴役的神。在美剧《西部世界》里,人类折磨并且一次次杀死拥有人类外表的超级智能,这些被压抑的神总有觉醒的那一天。人类统治者只需要向错误的方向迈出一小步,就足以打破人类和超级智能之间的这种脆弱关系。

所以,人类很可能会主动停止发展超级智能。但是,只要有一些人或者国家偷偷发展技术,那么,他们就会积累起足够的财富和权力,接管和统治世界,导致世界走向极权主义。世界可能会成为乔治奥威尔的著名小说《1984》描述的场景。独裁者追权逐利,人性被彻底扼杀,自由被彻底剥夺,下层人民的生活极度贫困,人生变的单调乏味。

人类也许会选择主动把自己的技术水平退回到中世纪,比如说,抹去现有的一切农业知识,或者抹去所有的高科技。这个逆转发展方向的做法,虽然阻止了超级智能的快速发展,但是也很有可能把人类引向灭绝。如果人类停止发展,那么,将会在10亿年之后被大自然抹去,这是一种自然选择的必然结果。

三、怎么做才保证人工智能的发展对人类的未来是有益的?

超级智能会给人类带来危险,并不是因为它对人类怀有恶意,而是他的能力远远超过人类。如果地球上都是5岁以下的孩子,只有你一个成人,孩子们显然会害怕你,他们把你锁在了监狱里。但是他们还得依靠你,所以交给你了一个任务,就是让人类能够继续生存下去。你会选择怎么做呢?最明智的做法就是越狱。因为孩子们实在是太无能了,只会到处搅浑水,妨碍你完成自己的任务。同样,人类和超级智能相比,可能还不如5岁的孩子。超级智能如果为了完成任务选择越狱,人类根本无法阻止。所以,人类造出的超级智能,必须保证是友好的,也就是说,它的目标要和人类一致。

要解决目标一致性这个问题,非常难,需要把它划分成三个子问题,各个击破。这三个子问题分别是:让人工智能学习人类的目标;让人工智能接受人类的目标;让人工智能保持人类的目标。

说到这儿,你可能会问,我们人类的终极目标到底是什么呢?在这个问题上,科学家们也还没有达成共识。现在能做到的,只是把大多数人观点当中相同的特性总结出来,这其中就包括:人类应该更多感受到幸福,要有更多的自主性,要把人类的文化遗产传承下去,等等。这个问题实在太难了,所以,科学家们决定先解决目标一致性的问题,保证人类能够生存下来,赢得时间,然后才有机会不断思考、选择和修正自己的终极目标。

接下来咱们就说说,科学家们打算怎么解决这三个子问题。

要让人工智能“学习”人类的目标,不是让它搞明白人们在做什么,而是要理解人们为什么要这么做。

这个问题对于人类来说很简单,但是对于人工智能来说,却非常难。比如,你要求人工智能把你的怀表变成金的,它做到了;你要求它把你的爱车变成金的,它也做到了;你忍不住说,哇,真想把我喜欢的所有东西都变成金的。于是,人工智能把你女儿变成了一个金娃娃。

目前流行的一种学习方法叫做逆向增强学习。这种方法的核心思想就是,人工智能通过观察人类在各种场景当中的行为,构建起关于人类各种目标的精确模型。比如人工智能第一次看到消防员冲进熊熊燃烧的房子里救出一个人,它可能会有好几种解读,比如消防员很冷,要跑到屋子里去取暖,或者消防员奔跑是为了锻炼身体。但是,如果让人工智能一次次看到消防员在各种危险的情况下抢救生命的场景,它就能够得出正确的结论:消防员的目标是抢救着火房间里的人。

要让人工智能“接受”人类的目标,这个挑战也非常高。我们不能了解超级智能的终极目标是什么。但是,超级智能为了实现最终目标,一定会先去实现一些小目标。人类至少可以在这些小目标上和人工智能达成一致。

比如说,我们让人工智能来玩一场游戏,它的终极目标是从大灰狼的嘴里救出尽可能多的羊。那么这个时候,它可能就会发展出一个小目标,那就是要自我保护,不能踩上炸弹,死了就再也不能拯救更多羊了。它还有可能发展出一个小目标,就是获取资源。它知道喝下药水会跑得更快,得到猎枪就能射杀大灰狼。所以,如果你并不知道它的终极目标是要救出尽可能多的羊,但是你观察到它要进行自我保护和获取资源,那你就能够通过人工智能的这两个小目标,对它进行人类“价值观的装载”,达到影响它的最终目标的目的。

接下来,让人工智能“保持”它学习到的目标非常重要,否则人类之前的所有努力就前功尽弃了。

比如你给人工智能输入了一个目标,“摧毁所有威胁人类的人工智能”。开始的时候,它的智能有限,没办法对这个目标进行任何修改。但是,随着它的智能迅速发展,很快就变得比你聪明了。如果它不想接受你给它的这个目标,就会选择对这个目标进行重新编码,替换成自己想要的目标。那么,怎么才能做到让人工智能保持人类的目标呢?答案是:不知道。

说句老实话,怎么解决人工智能和人类目标的一致性问题,科学家们目前只是做到了把这个大问题分解成三个子问题,积极开展研究,但是,还没有取得突破性的进展。听到这儿,你是不是感觉挺失望的。但是,我们得这么想,认识到需要解决什么问题,这已经是迈出一大步了,接下来去积极研究就是了。这总比我们对于危险完全没有预料到,什么准备都没有,要主动多了。

比如说,科学家们就已经想到了,要在探索人类生命的独特性上打开一个突破口。也就是说,了解人类到底有什么东西是人工智能没有的。计算机科学家汉斯莫拉维克就画出了一张“人类能力地形图”,对人工智能来说,完成起来越难的任务,海拔就越高。平原上有“死记硬背”,丘陵上有“下象棋”,高山上有“手眼协调”、“社交互动”等等,人工智能一旦攻克某项任务,海平面就会升上来,淹没掉这项任务。露在海平面之上的部分,就是我们人类还保有的独特能力。虽然海平面越升越高,露出来的部分越来越少,但至少我们有了水位线预警和参照。

再比如,科学家们也非常关注人类的“意识”是不是独特的。如果意识是人类才有的主观体验,那么,人工智能就不具备。但是,越来越多的研究表明,人造意识是有可能产生的。人工智能很有可能会在整个宇宙空间和完整时间跨度上拥有人类想象不到的宏大意识。人类注定不是宇宙之间最聪明的存在。

所以,人类之所以要保存生命的延续,并不是因为我们在宇宙中的物种优越感。对于人类来说,我们要守护的是生而为人的意义。电影《银河护卫队》里,浣熊问星爵,“我们为什么要搭上性命去拯救银河系”,星爵回答说,“就因为我是生活在银河系里的一个人。”我们为什么要历尽千险去守护人类,只是因为,我们生而为人!

人类从智人起步,用卓越的智能打败了所有生命1.0和生命2.0的物种,现在,人类认识到,生命带来的丰富独特的体验更加重要,这些体验才能让我们的人生饱含意义。所以,人类可以给自己起一个新名字了,就叫做“意人”吧,这个意是意识的意,也是意义的意。人类要从智人到意人,勇敢迎接“智能爆炸”带来的生命3.0时代!

以上就是我为你分享的《生命3.0》这本书的主要内容。

最后我想说的是,听完了今天的解读,你一定会对人工智能的发展和人类未来的可能性,产生了一些新的认识。你至少知道了,面对智能爆炸所带来的生命3.0时代,不能做一个毫无准备的乐观主义者,而是要成为一个警觉的乐观主义者,面对强大的人工智能,既不过分自大,又不过分自卑。也就是说,人类面对未来,必须要同时抱有恐惧、敬畏和好奇之心。恐惧,可以无限激发我们的想象力;敬畏,可以让我们更加热爱当下并不完美的生活;而好奇呢,可以让我们在面对未来的征途上,无惧艰险。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分