中搜网络总裁陈沛:从“人机大战”看人工智能的崛起

人工智能

636人已加入

描述

中搜网络董事长、总裁陈沛,是著名人工智能专家、中国计算机协会常务理事、第三代搜索主设计师,也是北京围棋业余冠军。

各位朋友大家晚上好,我是陈沛。今晚为大家分享的主题是《机器会否统治人类?从人机大战看人工智能的崛起》。

我们都知道,2017年的人机大战已开幕,柯洁和AlphaGo比赛的第一局,我们也都已经看到了结果,是AlphaGo1/4子赢了柯洁。其实1/4子在围棋上是最小的一个输赢单位,没有更小的胜负差别,但比赛在我看来其实是一面倒的。实际上AlphaGo一直占据着优势,虽然柯洁在官子阶段步步紧逼,竭尽全力,但是最后还是输掉了比赛。

在这之前,媒体问我“柯洁胜算几何?”,我很抱歉地预测说“柯洁三战皆负”。今天这是第一盘,我们还有机会看第二盘和第三盘。但这个比赛本身是非常有意思的,在我看来它已经超出了围棋的范畴,它不是一个简单的围棋比赛,而是人类和我们人类造出来的机器之间的竞争,只不过这个竞争是在一个非常独特的领域就是围棋中展开的。

由我来分享这个主题,我个人觉得是挺合适的。因为我本人从六七岁开始学围棋,拿过浙大的围棋冠军,也拿过总参谋部的冠军,还拿过北京市业余围棋的冠军,所以我对围棋有自己的一些理解,应该说在业余里下的比较好的人了。另一方面我也做过很多人工智能的项目,包括专家系统,特别是我自己还写过一个五子棋博奕程序,把人的知识用计算机语言的方式去表达和使用,然后再和人类进行比赛。所以AlphaGo和柯洁的大战引起世界的关注,也引起了我的个人兴趣,我觉得通过这件事情,我们可以更好的来看看人工智能的崛起。

复盘几次“人机大战”

人工智能是时下热点,也成为了刷屏的关健词。其实机器和围棋的比赛并不是第一次发生,在很早就有这种机器和人对战的围棋软件,每年甚至有计算机的围棋比赛,但是都没有像现在这样引起轰动。我觉得最大的一个原因是人工智能的崛起带来了围棋软件的大幅度提升,开始挑战人类的顶尖高手。

1997年,IBM的深蓝战胜过人类的国际象棋冠军卡斯帕罗夫,应该说机器挑战了人类的棋类游戏,并且战胜了人类顶尖高手,但是那时候并没有特别大地引起整个人类的轰动和关注。当时是IBM的一个小型机IS6000和人类的世界冠军卡斯帕罗夫的对弈,这个比赛确实使用了机器,但是并没有大量采用人工智能技术,更多的采用了一些硬件加速,暴力计算的方式,战胜了人类的冠军。而象棋和国际象棋在变化量的数量级上比围棋差了很多,以至于机器通过自己强力的运算就有机会战胜人类的世界冠军。

这次不同,这次挑战的是围棋,围棋变化的复杂量,有人形容说它是原子的个数总和,大概是120位以上的数字,变化极其复杂,复杂到我们人类从来也不能够算清楚,未来也不可能算清楚。过分的复杂以至于机器也算不清楚,因此在围棋中我们必须使用一些分析、判断、决策等人类特定的智慧,而不是机器的运算能力。

很多人开始说:“机器能算那么快,人当然下不过他了。”其实机器虽然算得比较快,但并不是完全靠计算来战胜人类的。它有自己的神经网络,有自己的深度学习,它把人类当成老师,然后不断的学习和提高,包括左右互搏。这个过程中机器积累了人类对围棋大量的知识,这时候它才能真正战胜人类。所以这次AlphaGo战胜人类具有里程碑式的意义,它可能在人类所有的智力游戏上占到了一个制高点上,以至于下完这次比赛以后,可能人类已经没有机会再去挑战机器,按柯洁的话说:“这是我和机器下的最后三盘棋”。

当年IBM的IS6000,就是“更深的蓝”,战胜了卡斯帕罗夫的第二天就宣布退役了。换句话说,“如果我现在能赢了你,你以后再也没有机会赢我了,再跟你下没有意义,所以不跟你们玩了。”这次为什么跟柯洁还有机会做一次这样的人机大战呢?是因为去年4月份的时候,AlphaGo和李世石进行了第一次“人机大战”,那场比赛机器4:1战胜了人类,而李世石在第四盘的时候下出了所谓“神之一手”,打乱了整个机器的系统,后面的逻辑产生了紊乱,我本人是现场参与解说的,我发现机器在这个过程中犯了一些非常规的错误,应该不是知识也不是能力。

从棋的内容上来说,去年的比赛机器确实比人类顶尖高手像李世石这样的人下得更好,但是好的依然非常有限。我们人类可能不太服气:“你虽然赢了我,我也没有觉得你有多厉害”。特别比赛刚开始的时候,人类一边倒的认为机器下棋下不过人类,包括我本人也误判了,但是事实上机器在上次的比赛中已经战胜了人类的代表李世石。

李世石荣获了人类的14个世界冠军,应该统治了人类棋手十年的历史,代表人类也是当之无愧的,但是客观来说他已经过了自己的巅峰期,不是最佳的竞技状态,所以不一定能够代表人类现在最高的围棋水平。而柯洁是现在的世界第一,所以安排现在人类的世界第一和AlphaGo再进行一次比赛,依然具有挑战的意义,只不过这次挑战看起来不像是机器挑战人类,更像是人类挑战机器。

除围棋领域,前不久也有“冷扑大师”和人类进行了德州扑克比赛,后来也战胜了人类。其实更早一些的时候,实际上IBM的深蓝战胜卡斯帕罗夫以后,没有继续在围棋上去研究,而是去参加了人类的一些知识竞赛的比赛,那个系统叫沃森,后来也战胜了人类知识问答的冠军,所以机器是在不同的场合,以不同的方式挑战人类的智慧。

AlphaGo是怎样与人类比赛的?

有很多人来问我AlphaGo到底是怎么下棋的。AlphaGo应用了哪些技术呢?

云计算

跟大家想的一样,它确实要锁定在计算,这次的AlphaGo我不知道情况是什么,但上一次跟李世石的比赛,AlphaGo动用了2000台的服务器,同时进行运算,应该说它使用的云计算技术,集中了相当一部分通过网络连接起来的计算资源。比较而言的话,如果只用一台服务器做运算需要一秒钟的话,2000台的话就可以大大降低它每次判断的时间,甚至使整个比赛得以进行,所以利用云计算谷歌应该可以动用大量的服务器,不光2000台,需要两万台的时候也可以,所以现在应该是用两千台服务器同时进行运算参与这样的顶级比赛。

大数据

应该说AlphaGo的上一个版本是1.0版本,它大量录入了人类顶尖棋手的围棋棋谱,可以说它继承和学习了人类围棋史上可以学习的围棋知识,然后通过深度学习的方式,变成它能够理解的知识,然后应用到它自己的实战当中,所以很显然这也是一个大数据的成果。

当然很多人可能不一定都会下围棋,很多人也不是都是懂得人工智能的。所以AlphaGo实际上是有一套非常好的人工智能技术来适应围棋的比赛,简单说有两个网络——一个是价值评判的网络,一个是搜索的网络,然后找到每次决策它认为最好的一个点,这个点是以胜利最高的点作为决策的依据。

我们可以这样简单理解AlphaGo怎么去跟人下棋的。当柯洁下了一步棋的时候,它会在所有可能的选点中作出一个基础的判断,判断哪些棋可能是应该思考的,但是什么样的棋应该思考的呢?它可能需要搜索的方法去验证,比如说,如果这个点是人类棋手经常使用的,或者是这次可能采用它自己学习系统来产生的一个重要的推荐点,根据这个推荐点会引发一系列的演变,而这些演变通过门特卡罗的搜索数不断的去验证,双方相当于是左右互博的方式,双方都按照对方最好的应对,去演变下面的一些变化。当这些变化演变到一定的步数之后,比如说20步、25步这样的步数的时候,它要对结果进行评判,然后把结果反馈。

据说AlphaGo1.0版本的时候,它的学习过程是把人类的大量棋谱作为主要的依据。就是人类在这样的情况下,选择什么样的点进行思考和判断,进行去搜索和推演。这次AlphaGo2.0它实际上不再使用人类已有的棋谱,而是通过两台AlphaGo互相博奕互相学习的方式来产生知识推荐点,我觉得这个过程是很容易理解的。因为早期AlphaGo完全不具有人类的知识,所以他需要大量的棋谱。那么等它经过1.0的比赛以后,它本身已经成为人类的顶尖高手了,所以两台AlphaGo自己的相互博奕就可以作为推荐的依据了,所以很可能这次采用的是它用自己方式来生产的围棋知识。

人工智能因何崛起?

人工智能其实已经有了60年的历史,人工智能的所有从业者都在不断尝试,让机器学会人类的思考方式,代替人类的一些工作,包括代替人类的一些思考。这个过程应该说既有兴奋的时候也有沮丧的时候,所谓的兴奋就是我们今天能看到人工智能的突破给我们点燃一个希望,但也经常会发现,将它大规模应用来代替人类依然还有很远的距离。这个情况恰恰最近几年发生了很大的改变,我们看到它不光作为全球的热点不断地被提及,大量的企业也在投入资源进入人工智能领域,而人工智能也在绽放出很多令人吃惊的成果。

我觉得人工智能在这段时间变成人类关注的热点,不是偶然的。我个人归结了一些重要原因:

互联网的诞生

互联网本身的诞生使我们有机会把整个人类的计算能力,存储能力通过互联网联结在一起,这个过程使人类具有了更强大的能力。所以随着互联网诞生,我们有了云计算的技术,我们有了大数据,有了物联网,还有一些新的基于互联网成果的各种各样的技术和能力,这些能力大大的推动了人工智能的发展。

生物医学的发展

生物医学的发展,使我们对人类大脑有了更多的了解,我们知道一个大脑可能有非常多的神经元组成,好像有一千亿这么巨大的数字,每个神经元之间可能还有八千到一万的相互连接,用这样的方式来互通信息,处理信息,使大脑产生了一个的加工信息,分析问题,然后做出决策判断的能力。

而这次AlphaGo使用最主要的技术是来自于神经网络的深度学习,这些都是最新的人工智能成果,它们以最大的限度推动了人工智能的最近一轮发展。当然像这样的神经网络和深度学习的技术其实可以用在很多领域中,所谓的围棋它不过是一个尝试,如果说这次AlphaGo战胜了人类的世界冠军柯洁,也许它未来并不一定是在围棋上继续下很多功夫,而去开始挑战其他的领域。

人工智能崛起,人该高兴吗?

去年我做围棋解说的时候,有很多人就在关心人机关系。后来和很多青年学生做了一个对话,也谈到这些有趣的话题,这其实都超出了围棋本身。一次我和学生现场对话,我说“会下围棋的举个手”,基本上没有人举手,所以说关心人机大战的并不仅仅是围棋的爱好者,几乎都是我们普通人都把它当成兴趣点,当成重要的知识在学习和吸收它。

通过这次人机大战,使我们对人工智能有进一步的思考,我觉得这是个挺有意义的事情。我记得上次分享的话题就是我们人类真的输了吗?当然不是,因为我们人类的职业棋手们可能输掉了比赛,但是对另一部分人类精英创造的人工智能恰恰是一次成功的里程碑。总之,这都是人类的成功。

我更愿意把机器看成是我们人类的儿子或者是人类的学生。以AlphaGo为例,它是由很多工程师和科技精英们制造出来的,它应该是我们的儿子。它大量的围棋知识都是向我们人类学习来得到的,所以它也是我们学生,这样的定义可能更容易理解一点,也更容易接受。

我想比赛几天以后就会结束,但是关于人工智能的话题将会继续持续,关于人工智能与人类的未来的思考将继续。

人工智能到底能为我们做什么?按照我的想法是,我们人类可以把最苦、最累和不愿意干的活都交给它干。但另外一方面它的能力正在提升,它可能会做一些思考性的问题,比如说下围棋,以前的机器是不足以跟人类下围棋的,现在它可以陪你下棋了,甚至你可以向它学习,所以它开始挑战人类更富有智力的一些项目。这个影响可能是非常大的,人类很多可能更需要智力、分析、判断、解决问题的事情,它也能帮我们一些,据说有的机器人已经试着像记者一样写新闻稿了,还有自动驾驶、无人机……只要能够在这些领域中达到人类的水平,就可以替代我们人类的工作,这会使我们大量的精力放在更富有创造性上的领域中。

在非常富有创造性的领域,其实现在人工智能也开始在挑战我们人类,或者在尝试挑战人类的能力。有一些人正在尝试用人工智能的技术来做音乐,有一些机构正在研究怎么让机器去画画,还有一些机器在做人类咨询性的工作,它能够回答一些可能相对来说不需要特别深度思考的一些问题,来代替我们一些低等的咨询服务。可能来自于法律或者来自于其他的专业性知识的,这些知识应该说更多的出现在整个互联网上。而未来它也会代替很多具有浅度知识的那种职业。

有些机器人正在研究怎样去选股票,怎样去撮合交易。可以想像,在这么复杂的世界中,当我们拥有大量数据的时候,我们是不是可以在大数据上面分析出哪支股票会涨,哪支股票会跌?影响它的因素确实非常多,除了我们经常听到技术的K线图,包括宏观的政策或者融入一些心理学的知识,这些复杂的知识体系进入到决策过程的时候,机器也许未来比人类做得更好。

要是这么说的话,我们人类实际上应该是高兴还是不高兴呢?高兴的是我们很多工作可能会逐步被机器所替代,它确实可以降低我们人类劳动的强度,使我们可以能够把这个精力腾出来,干什么呢?我们可以喝喝茶,聊聊天,下下棋之类的,把其他很多工作交给它们。但另一方面它似乎开始威胁了我们人类一部分群体,它会代替我们一部分工作。从我刚才举的例子来说,这种代替甚至是可能超出我们现在的理解和想象。无论你是蓝领、白领,甚至是金领都有可能被替代。

为什么上一次AlphaGo和人类的挑战的过程中,职业围棋界对它有很多担忧,特别希望我们人类能够赢下来呢?我想今天我们可能会用更开放的心态来看待人工智能的崛起,这次即使柯洁输给了AlphaGo,他引起的这种对输赢的轰动可能是小的,甚至是对围棋未来发展的担忧也没有那么大。因为据说去年人机大战以后,整个围棋在全世界得到更大的普及,很多人开始买一个围棋来学习这种东方的智慧。当然,未来我们人类也可能会像AlphaGo们学习关于围棋的知识,使我们越来越接近所谓“围棋的上帝”。

那么在另一部分领域中可能就不这么乐观了,假如说人工智能能够做很多无人驾驶这样的工作,像司机这样的职业会不会受到挑战呢?如果我们现在去打一个车,很可能周边一辆没有一个人的车就直接开到了我们身边,将我们带到了目的地,这个可能吗?当然可能。所以从这个角度来说,人工智能帮助人类的同时,也可能给我们部分人群形成了一定的挑战和威胁,这是客观存在的。据说很多机器人开始进入很多的生产车间,因为是人的劳动成本正在提升,那这样的话机器人可能从整体上来说会降低生产成本提高生产效率。

关于人工智能更大的挑战还在于,我们人类是否能够很好的控制这个机器,机器会有一天摆脱我们人类的控制,甚至反过来控制我们人类吗?这才是一个更有意义的,有前瞻性的话题。我们知道像霍金这样很著名的企业家,包括马思克他们都提到要谨慎开发人工智能的能力包括要对它进行驾驭和管控,实际上都意识到人工智能一旦失控对人类的威胁。

也有人说这可能是杞人忧天,空穴来风。我个人倒不这么认为,我认为这个挑战是现实存在的。有人说如果机器人不听话的话我就拔他的电源,这听起来是我们人类很好地可以控制它,当然理性一点的说法是机器人所有程序都是我们写出来的,它应该都听我们的。但是实际上,有很多因素可能导致我们对机器人然后失去管控。

为什么上一次AlphaGo和人类的挑战的过程中,职业围棋界对它有很多担忧,特别希望我们人类能够赢下来呢?我想今天我们可能会用更开放的心态来看待人工智能的崛起,这次即使柯洁输给了AlphaGo,他引起的这种对输赢的轰动可能是小的,甚至是对围棋未来发展的担忧也没有那么大。因为据说去年人机大战以后,整个围棋在全世界得到更大的普及,很多人开始买一个围棋来学习这种东方的智慧。当然,未来我们人类也可能会像AlphaGo们学习关于围棋的知识,使我们越来越接近所谓“围棋的上帝”。

那么在另一部分领域中可能就不这么乐观了,假如说人工智能能够做很多无人驾驶这样的工作,像司机这样的职业会不会受到挑战呢?如果我们现在去打一个车,很可能周边一辆没有一个人的车就直接开到了我们身边,将我们带到了目的地,这个可能吗?当然可能。所以从这个角度来说,人工智能帮助人类的同时,也可能给我们部分人群形成了一定的挑战和威胁,这是客观存在的。据说很多机器人开始进入很多的生产车间,因为是人的劳动成本正在提升,那这样的话机器人可能从整体上来说会降低生产成本提高生产效率。

关于人工智能更大的挑战还在于,我们人类是否能够很好的控制这个机器,机器会有一天摆脱我们人类的控制,甚至反过来控制我们人类吗?这才是一个更有意义的,有前瞻性的话题。我们知道像霍金这样很著名的企业家,包括马思克他们都提到要谨慎开发人工智能的能力包括要对它进行驾驭和管控,实际上都意识到人工智能一旦失控对人类的威胁。

也有人说这可能是杞人忧天,空穴来风。我个人倒不这么认为,我认为这个挑战是现实存在的。有人说如果机器人不听话的话我就拔他的电源,这听起来是我们人类很好地可以控制它,当然理性一点的说法是机器人所有程序都是我们写出来的,它应该都听我们的。但是实际上,有很多因素可能导致我们对机器人然后失去管控。

人和机器的界限在哪里?

什么是机器人?

我个人认为,随着人工智能进一步的发展,我们和机器的界限会越来越模糊,我喜欢把我们现在的自然人称为是人,而那些纯机器的就称为机器,然后会诞生一种新的生物,它能更像机器和人的结合,被称为机器的人。

现在我们讲的机器人是什么呢?越来越像人的机器,这一点我们都可以相信,就是我们从材料方面,外观方面,我们都会发现我们造的机器人都确实越来越像人类。

著名的图灵测试说:“如果你跟它聊了半天都不知道它是个机器的话就通过了图灵测试。”这个我觉得会越来越接近,图灵测试应该是人和机器界限中的一个最低的门槛,如果这个槛都过不去,你稍微聊两句就知道它是机器的话,说明它不像人,它对人的模拟和接近距离尚远,这个其实只是一个最低的门槛。更高的门槛是它能不能像人类一样具有高度丰富的智慧,甚至具有人类的情感,这才是所谓机器跟人之间的距离。以前我们可能会认为,机器最擅长的实际上是运算,确实是,当我们人类发明计算机的时候,目的就是让它帮助人类计算。但问题是这次通过人机大战,我们感受到了,人工智能不仅仅在计算领域中超越了人类,在完全不能计算复杂的智慧中,它依然挑战和战胜了人类,这恰恰是人工智能一次飞跃性的发展。

当这种能力复制在很多人类的工作领域中时,它和我们人类之间的关系就会变得更加复杂。通过这次人机大战我们能够感受到的是什么呢?就是在这种深度的人类智慧中,机器开始挑战人类,它不仅仅是个运算的工具了。今天如果有一个人坐在我的对面和我们下棋,然后轻松的击败了我们,这时候我们知道对方是一个机器还是人吗?如果我们不知道,说明机器人在模拟人类方面已经越来越接近人类了。

机器人是否会有情感?

另一方面我们说它永远不会成为人类,是因为它不会有自我的意识,它可能不懂得什么叫爱。就像今天(钛坦白)群里有人说的一样,“机器可能知道我怎么做,我做什么,怎么做,但我不知道为什么要做这件事。”而现在看来确实是这样的。现在的AlphaGo下的棋确实是不知道为什么下,甚至不知道它下的是围棋,它只知道按照规则去执行一些动作,最后产生一个结果,至于赢了还是输了我觉得它甚至没有喜悦也没有痛苦。我们先不说,拥有这种情感对人类是好事坏事,对机器是好事还是坏事,先说它可能不可能拥有这些东西。

我觉得机器人在帮助人类做很多机械的劳动和工作以后,它可能会上升到更高级别的服务中,比如说情感机器人,我觉得未来肯定会诞生。如果我们在家里,有一个专门打扫卫生给你端茶送水的一个机器人,我们很容易理解,我们需要它用这种努力和工作来代替我们原来人类的职业。甚至可能会做得更好。但是如果是伺候的是一个老人呢?我们会不会希望它能够陪老人说说话呀?如果是这样的话,未来可能会诞生一类就是情感机器人,它可以陪你聊天。

在陷入孤独和痛苦中,无法向别人倾诉的时候,向一个机器人倾诉也可能是你情感宣泄的一个过程,它跟你做非常好的应对,甚至是心理治疗的一个部分,这个比较容易想象我们也比较容易接受。这个过程你是否觉得它给你带来很多来自情感上的安慰呢?这时候它是不是更像人了呢?

这样的话它会带来更大的一些问题:未来我们会不会爱上一个机器人呢?机器人和人之间会产生情感吗?我觉得它可能是会的,就像你在家里你养狗或猫时间长肯定会产生感情,当然它对你也有依赖和感情,所以人类喜欢上一个机器人,可能是很正常的一件事情。机器人会不会爱上你,那变成另外一个较复杂的问题了,包括它自己会不会有一些自我的意识,这是一个比较有意思的话题。

机器人会不会摆脱人类的控制?

机器人一旦知道自己是一个机器人的时候,它还会像现在这样接受人类的管理,服务于人类吗?这在我看来,是机器人摆脱人类控制的一个重要因素,或者是一条路径,但是实际上我们人类失去对机器人的这种控制,有很多种不同的路径。就是说,机器有没有可能有一天摆脱我们人类的控制?甚至反过来控制我们人类?这个话题在我看来是一个越来越现实的话题,当然现在我们不用特别担心它,因为现在机器智能离我们人类尚远,甚至还不能够综合掌握人类所有的智慧,有些机器只能下下棋,有些只能打打牌,有的只能搬搬东西,那种具有人类综合能力的机器人还没有完全形成,我们只是对未来做一个展望,就像做一个科学幻想一样。

我觉得人类至少有这样几条不同的路径,失去对机器的这种管控:

一,人类自身犯下的错误。人不是神,只要是人就会犯错误,虽然机器人的所有程序都是我们编写的,但是依然可能会失去对它的控制,因为我们会犯错,如果有个机器人给你端咖啡,端到一半突然不动了,我们知道这个机器人出了一个bug,不能帮你倒咖啡问题上还算是小事,你找个人修一修就又接着对你服务了。关键是如果我们人类会犯错,有时候我们不知道犯错会犯在哪个地方。如果犯在一个失去控制的地方,我们根本不能预测犯错以后的结果,这是我觉得人类自身存在的一个可能。

二、其他人类因素的介入。机器人确实是我们人制造出来的,并且我们可以对它进行有效的控制但是在控制和制造机器人的过程中,会不会有其他的人类的因素介入?比方说我们人里头分好人和坏人,这里头会不会有不同的利益集团想利用机器人反过来为自己的集团利益服务?这时候他们会不会改变对机器的设置?当然这个过程中,也会带来一些新的风险,就是有些机器人可能是忠实于人类的,但是被人为的改变以后,也许进入一个反人类的状态,至少反部分人类的状态,最后改变了对整个机器的控制,这是更显而易见的。

三、利用人类的善良与同情。像电影《机械姬》讲的,我们人类一些比较善良的人去参加一个图灵测试,这时候他看到人和机器的关系,非常同情这些机器,开始对机器拥有一种感情,这时候他想帮助机器来摆脱人类的控制,但是这个结果依然可能带来风险,机器人可能借助人类的善良或者其他的爱心,不仅摆脱人类的控制并且还会反过来控制人类。那这种情况也可能会出现。

四、人工智能理解上的差异。就像我们一个大人和一个孩子说话,看起来你把问题表达的比较清楚,但对孩子来说听到可能是不同的。有可能你觉得讲得很有道理,但是别人听着完全不是这么回事,这也会带来理解上的差别,带来可能一种更大的风险。

比如著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则:第一,机器人不得伤害人类,或坐视人类受到伤害;第二,除非违背第一法则,机器人必须服从人类的命令;第三,在不违背第一及第二法则下,机器人必须保护自己。

作为三个公理我们听起来挺好的,觉得可以很好的管控机器人,可以像植入操作系统一样,使每个出厂的机器人都拥有基本的原则,我们以为这样就完成了对机器人的管理。实际上在我们现在理解中,这样的三个原则真能管好机器人吗?其实不一定。

从小的地方讲,什么叫保护人类?比如说我们让一个家庭机器人照顾好自己的孩子,我们告诉他必须绝对保证这个孩子的安全。听起来这是非常重要的,但是机器人怎么理解这件事情呢?机器人通过各种分析,发现怎么样才能够最好的保证这个孩子的安全呢?就是呆在家里不出去,因为出去的话可能会遇到交通事故,遇到恐怖袭击等很多不确定的因素,它通过大数据的分析和各种概率计算,最后发现呆在家里是最安全的,于是它就不让他出去了。如果只是管理个孩子还行,换成是大人呢?说要保证我的绝对安全,绝对安全是什么?就是把你关在家里,然后不出去,是最安全的一种方式,这时候相当于软禁了,如果它对人类的理解就是这样保护人类安全,同样带来一些大的风险。

另一些机器人可能理解的程度就更高了,不是要我保护人类吗?但它认为人类正在自己毁灭自己,比如说我们搞的空气污染、战争,人类自相残杀,它觉得人类这个物种正在自己毁灭自己,于是它认为保护人类最好的方式,就是把人全部关起来,像宠物一样的去养他们,就很像我们现在保护野生动物一样。如果它这样理解保护人类的话,是不是对我们人类同样是非常危险的呢?当然如果哪天机器人有一点自我的意识,真的变得非常危险了。

关于这个问题,我没有特别深入的思考,就是说我们不知道有没有可能在这个高度智慧的情况下,机器人开始思考自己来自于哪里,要去哪里,自己是谁等这些人类基本的哲学问题。假如说它们有了所谓自觉的意识,它们还愿意服务于人类吗?

对于“真正的机器人”的构想

我认为人类和机器的界限会变得越来越模糊,当机器越来越高度智慧的时候,它从外观上,甚至内在上,会越来越接近我们人类。但是机器就是机器,我觉得有另外一类的模糊会发生在我们人和机器之间,所以会有一种新的物种会诞生,我认为那个才叫真正的机器人,就是机器和人的结合。

机器自己产生了意识或者人类把自己的意识放到一台机器上了,这时候就会出现机器和人的这种混合物,这很容易理解。你想一个机器发展到足够好的时候,它在很多部分开始代替人类,假如说我们因为车祸受伤了,会装一个义肢、假肢,这时候我们是不是很容易接受它代替我们的四肢?如果我们的器官出现了问题,我们替换了一个器官我们是不是能够接受?当我们身体大部分被替代的时候,我们到底是不是人了呢?

有一个电影叫《攻壳机动队》,它可以把人类的大脑植入一台钢铁的器具中,变成了人和机器的结合物,只保留我们大脑。是不是还是我们的人,但是其他部分全部变成了机器?在我看来,这就变成了一个新的物种叫机器人了。拥有人类的大脑,又有很多其他机器的能力。实际某种程度上已经开始超过我们人类自身了,因为人类的血肉之躯可能是我们的弱点,比如说我们跑不过猎豹,打可能打不过老虎,很多动物在原始的技能上都超过了我们。我们最重要的就是拥有一个大脑,但是我们并没有一个强健的躯体,当我们具有一个钢铁之身的时候,是不是已经变成了一种优势?所以那样的机器人对于人类来说已经形成了某种优势。如果让机器人这样的开始不断的学习和掌握人类的智慧,逐渐开始接近人类,我觉得是个挺危险的事情,机器越来越像人类甚至超越人类,还有钢铁之躯的时候,它整体上会不会真正超越人类成为一个新的物种呢,所以人类要面对这样的一个新的物种,我们应该怎样呢?

人类自身的进化

我觉得人类也会完成自我的进化,我们看到人类在几百万年的演化过程中,成为了万物之灵。我们超越了很多其他的动物,成为了食物链的顶端,这个过程中,我们成为了高等动物,我们可以让其他的人,包括甚至某些动物为我们人类去服务。但是我们见到过一个低等动物能够奴役和驾驭高等动物吗?没有,在进化的过程中,大家都向更高级别去发展,所以说当机器人如果真的超越了人类,这时候一旦失去控制,它不会服务于人类,而是很有可能让人类服务于它了。

所以人类也会发生一些新的进化,比如说现在我们大脑具有很强的思维能力,但记忆能力依然有限。从现在看,互联网已经几乎把人类所有的知识都沉淀在互联网上了,我们可以非常容易用搜索的方式或者其他大数据分析的方式,获得我们所需要的知识。我本人曾经就写过一本书叫《搜商》,我把它定义人类的第三种能力,就是继智商、情商之后的第三种能力。

所谓搜商不是说我们要把人类所有知识都记到自己的大脑中,主要的问题来自于我们未来的人类是掌握知识重要还是掌握获取知识的能力更重要。当然很多人开始越来越接受我关于搜商的观点:当然掌握知识获取知识的能力更重要,知识很多不必要记到我们大脑中。在哪里呢?在整个互联网上,当我们需要的时候再用就可以了。如果是这样的话,可能我们的记忆能力,甚至存储能力都有可能会退化,或者变得不那么重要,但是可以利用我们人类的技术和能力来补充我们的能力,最容易想到的应该是为大脑植入一个芯片,这个芯片把我们人类的很多知识都浓缩在里头。其实很简单,只要知道大脑是怎样工作的,如何存取和使用这些数据的,这些芯片就可以很好的发挥知识的作用,那时候我们就不用学好多东西了,什么学个外语,学个人工智能,学个下棋,我们很多的知识都可以直接存在芯片中,为我们人类所使用。

在我的想象中这些都是个性化的,就是需要哪一类知识你就可以装哪一类知识,不需要还可以把它们卸载。未来我们每个人都生活在网络中,应该都是一个无线的网络,就是随时随地都在这个云端,所以人类应该极其容易地获取这些信息。这样的话,我们人类就真正有机会把人类的技术成果同样为人类所用,未来会怎么样就看起来听起来很像一个科幻的电影,但是我们现在也应该能感知到:我们曾经看过的很多科幻电影如今都变成了现实。

未来的计算机体系结构

随着我们人类科技的进步,在我看来,整个人类的进步实际上是加速进行的,而最近这几十年,人类的科技进步会出乎我们的意料,是因为在整个互联网情况下,在云计算和大数据的支持下,我们曾经很难做的事情,会变得越来越容易,所以人工智能在近期得到了爆发性的发展。

在我看来人工智能如果要想再有一个大的进步,可能有一个技术领域的方向应该来自于对整个计算机系统的重新再造,或者会出现一个新的计算机体系。因为从现在的情况看,我们现在是把很多知识用现在的计算机系统表达出来。而现在计算系统大家知道,是基于冯诺依曼的体系结构,他是用0、1这种二进制的表达方式来表达人类的所有知识。这种知识是非常便于运算的,所以我们在现有的体系下处理器,有存储器,运算器构成了现在的计算机体系。

未来会不会有人工智能的计算机呢?我觉得可能会有,它可能会更接近于大脑的使用方式,就是用神经网络的方式作为整个计算机体系的基础,完全模拟人大脑思维,再结合现在的计算机体系。这样的话它具有更强的人类大脑思维方式,同时也借鉴了机器最擅长的运算、存储等能力。这样的体系,可能是未来更具有接近人类或者超越人类的优势。所以计算机领域可能也会发生一些大的变化,包括系统体系结构的变化,来适应人工智能技术的发展。未来的这个计算机的体系结构,会不会从冯诺依曼的体系结构进化到新的人工智能体系结构呢?这个我们可以拭目以待。

我觉得人工智能的话题是一个非常具有这种想象力的话题,通过“人机大战”,它开始充分展示人工智能的魅力,也通过人机大战检验了人工智能的很多成果。它们注定会应用到很多不同的应用场景中,然后在帮助人类的过程中,完成自己的深化。当然在我看来未来我们和机器的关系,就像是新的物种一样,我们未来最好是能够相生相伴,和平共处。如果说未来我们看到有三个人形的物体在那斗地主的话,我们很容易识别什么是自然人,因为斗的最差的那位是自然人,另外两位可能是机器人。

钛坦白群友互动:

1、陈总您好,请问能源问题是不是限制人工智能发展的一个因素呢?

陈沛:能源问题应该不影响机器人发展,因为我们可以让机器人去挖煤嘛,现在还有什么各种可燃冰,有很多新能源,我觉得能源不会成为问题,包括核能的广泛使用。

2、陈总,我想请教您一个问题,机器人威胁论最主要的观点是机器人可能会失控,而失控来源于机器人对外界事物的判断和处理上,会对人类造成危害,请问从人工智能技术角度,是否有技术可以避免这种情况的发生? 举个例子,机器人默认不对人类有暴力。

陈沛:当然人类会用各种各样的技术去保证来对过程的管控。但我刚才其实列举了若干个可能失控的这个原因,其中还包括人类自身的问题,所以单纯从技术方面去做一个安全防护,就像我们做一个安全体系来防止病毒入侵一样,我想所有的安全体系都以为它能防止所有的病毒,但是事实上总有各种各样的不同的病毒。包括他们不断进化和变种,侵入各种安全系统,所以这是一个矛和盾的过程,很难说有一个绝对安全的方案可以保证我们人类的安全。

机器人这个不对人类有暴力是不太行的,因为机器人作为一个工具有时候就是人类某个集团用于战争的工具,这是很正常的,他们用机器人去打击另外一些人类,这是最容易理解的东西。它就像武器一样,所以机器人不太可能不使用暴力,只是它使用暴力的对象有可能被人为的改变。如果有坏人要毁灭世界,机器人应该保护人类去战胜那个坏人对吗?所以不是简单用暴力可以控制机器人的。

其实所谓机器人是我们把拥有智慧的机器称为叫机器人,而它有时候可以像人,有可能也可以不像人,你们看到现在很多的无人机,其实拥有高度的人类智慧,可以识别地形,精确打击等等,这些东西其实本来就变成人类杀人的武器,所以这一类其实也都是一种机器人。

3、请问陈总,您说机器人可能作为军事人员或警察,机器人识别犯罪行为还是一般错误,可能会直接影响其处理结果,您认为人类以免过度暴力是否有能力处理好?

陈沛:所谓的机器人能不能处理,人类能不能处理好机器人的问题,这就是人工智能本身的一个问题,就像刚才我们讲的:我们认为能够处理好了不一定它理解那样的,所以我想理解本身就可能是我们跟机器人沟通中最重要的一个问题,它可能觉得这样是对的,但是也许我们人类看来并不是你的意思。

4、请问陈总,人类要怎么从娃娃抓起,跟越来越智能的机器竞争?机器能快速学习,人类该多学什么领域的知识,或者技能呢?

陈沛:靠提高运算速度,包括快速学习来赶超机器是不可能的,所以最好的方式是把机器已经学习好的成果用一个芯片植入我们的大脑,我觉得这是我们人类进化最快的方式。柯洁也说了,这是可能他最后的三盘棋,如果他这次赢不了机器,以后靠人的学习速度和机器的学习和迭代速度相比,只能距离越来越远。

机器威胁论最直接的就是部分岗位被机器所替代,这是一个非常现实的,不管你是蓝领还是白领还是金领都有可能被机器取代。

5、陈总您好,如果复盘今天的棋到中盘,然后让AlphaGo下柯洁的棋,您觉得谁会赢?

陈沛:这个中盘的问题,就是复盘今天的棋,要看你中盘在什么位置上。我个人认为一段时间内,实际上在一百多手以后, AlphaGo已经取得了明显优势,它的管子下的相对比较松。前一个测试版Master,在网络上60连胜的也是具有这个特点,如果赢了以后它并不选最强硬的下法,所以它如果换成柯洁的话整个的下法就不太一样了,据说在不利的情况下,可能经常会下一些比较拼命的下法,会失去它原有的水准,但是人类如何逼出它的劣势是战胜AlphaGo的关键。

6、陈总您好,像您刚才说的和我们目前所了解的,现在人工智能的神经网络研究方向,是一种类似仿生学但又不能说是真正的仿生学的研究方向。因为人类现在对大脑的运作方式还知之甚少,据说神经网络的层级越深得到结论的过程就越类似于黑盒。人类越难理解它的逻辑方式和人类的逻辑方式可能是完全不一样的。这样在利用人工智能的过程中就很容易出现失控和误用的情况,我想问一下,您觉得有什么方法可以控制这样的问题吗?

陈沛:其实人工智能分成两个学派,一个是本格派,一个是功能派。本格派认为,应该研究人大脑是怎么思维的,只有研究好大脑我们机器才知道怎么学习大脑,这是一种方式,所以通过人类生物学的进化提升整个人工智能。另外功能派的观点是,其实我并不一定要学习大脑怎么运营的,我只要把大脑这个智慧产生的结果做出来,一样是可以的。就像我们人类有了飞机就能够飞行,并不要像小鸟一样煽动翅膀,我们发行了汽车也可以跑得很快,不一定要像猎豹那样去奔跑。

现在我看是两种流派的融合,既要深度了解大脑的使用的工作原理,然后更好的知道人类智慧思考的这个模型,包括已有的一些知识的支撑,包括结构的支撑,那另一方面的话,其实它不应该完全依赖于人类的这种已有知识,生物学知识,所以这是一个相互融合的一个过程。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分