0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

机器学习、神经网络和深度学习为何能独领风骚?

深圳创新设计研究院 来源:YXQ 2019-03-31 10:27 次阅读

有“计算机界诺贝尔奖”之称的 ACM AM图灵奖(ACM A.M. Turing Award)近日公布 2018 年获奖者,由引起这次人工智能革命的三位深度学习之父——蒙特利尔大学教授 Yoshua Bengio、多伦多大学名誉教授 Geoffrey Hinton、纽约大学教授 Yann LeCun 获得,他们使深度神经网络成为计算的关键。

据官方公告介绍,因三位巨头在深度神经网络概念和工程上的突破,使得 DNN 成为计算的一个重要构成,从而成为 2018 年图灵奖得主。

ACM这样介绍他们三人的成就:

Hinton、LeCun和Bengio三人为深度神经网络这一领域建立起了概念基础,通过实验揭示了神奇的现象,还贡献了足以展示深度神经网络实际进步的工程进展。

这是图灵奖十年来第三次颁给机器学习领域的杰出贡献者了:2011 年图灵奖得主为 Judea Pearl,他开发的概率与因果推理微积分(calculus for probabilistic and causal reasoning)为人工智能发展做出了重大贡献。Leslie Gabriel Valiant 获得了 2010 年图灵奖,他为计算理论的发展作出了变革性贡献,包括 PAC 学习理论、并行与分布计算理论等。

https://amturing.acm.org/byyear.cfm

其实,现代神经网络、机器学习等AI技术背后的思想,可以追溯到第二次世界大战行将结束之际。彼时,学者们开始构建计算系统,旨在以类似于人类大脑的方式存储和处理信息

而深度神经网络早在1980年代就已经提出,但很快遭受质疑。专注于这种方法的学者,是AI界的少数派,LeCun、Hinton和Bengio就在其中。

三十多年前,是他们一生的至暗时刻。

然而,这一小撮“顽固分子”始终坚持自己的信念,他们不怕被视作蠢货,一直相信神经网络会照亮这个世界,并改变整个人类的命运。

最终他们的信念,也改变了自己的命运。

Geoffrey Hinton

Geoffrey Hinton,1947年生,现年72岁,谷歌的副总裁和工程师,也是AI研究机构Vector Institute的首席科学顾问和多伦多大学的名誉教授。

在ACM颁奖辞博文中,主要提到了Hinton的三个贡献,如果你做过AI项目,肯定不会陌生,它们分别是:

反向传播(Backpropagation)

1986年,在Learning Internal Representations by Error Propagation这篇论文里,Hinton证明了,反向传播能让神经网络发现自己内部的数据表征,这样便可以处理以往无法解决的问题。

如今,反向传播已经是神经网络的标准操作,Hinton也有了“反向传播之父”的名号。

玻尔兹曼机(Boltzmann Machines)

1983年,Hinton和同伴一起发明了玻尔兹曼机,那是最早能够学习神经元内部表征的网络之一:那些表征既不来自输入,也不来自输出。

改进卷积神经网络

2012年,Hinton和学生们一起,利用线性整流神经元(Rectified Linear Neurons)和dropout 正则化改进了卷积神经网络。

在ImageNet比赛上,他们几乎把物体识别的错误率降到了从前的一半,让计算机视觉领域焕然一新。

在获得图灵奖之前,Hinton就已经获得了大量的荣誉,手握加拿大最高荣誉勋章(Companion of the Order of Canada),是顶级认知科学奖鲁梅哈特奖的首位获奖者,也获得了人工智能国际联合会(IJCAI)杰出学者奖终生成就奖等等。

此外,他也是英国皇家学会成员、美国工程院外籍院士。

一个有趣的轶事是,Hinton的高祖父是大名鼎鼎的乔治·布尔——布尔逻辑的创立者,因“布尔检索“而闻名于世。

而即将出场的人,曾经在Hinton的实验室里做过博士后。

Yann LeCun

Yann LeCun,1960年生,58岁,现在是Facebook首席AI科学家。卷积神经网络 (CNN) 之父,是他最为人熟知的名号。

ACM列举的成就,也是从这里开始。

卷积神经网络 (CNN) :

1989年,在AT&T贝尔实验室工作的LeCun,以反向传播为基础,发表了一项研究,叫做“将反向传播用到手写邮编的识别上”。CNN的第一次实现,就是在这里诞生。

如今,CNN已经成为深度学习的基础技术了,不止在计算机视觉领域,在语音合成、语音识别这些应用中,也是行业标准操作。

反向传播雏形:

1985年,Hinton还没有成为反向传播之父的时候,LeCun在巴黎六大读博期间,发表过反向传播的一个早期版本,根据变分原理给出了一个简单的推导过程。

他用两种加速学习的方法,让反向传播变得更快了。

拓展了神经网络的视野:

LeCun不止把神经网络用在图像识别上,还解锁了许多其他任务。他提出的一些概念,如今已经成了AI领域的基础。

比如,在图像识别上,他研究了神经网络怎样学习分层特征表示 (Hierarchical Feature Representation) ,这也成为了如今许多识别任务中常用的概念。

另外,他和同伴Léon Bottou一起提出,学习系统可以由复杂的神经网络构成。在这样的系统里,反向传播是靠自动微分来实现。他们还提出,深度学习架构可以对结构化数据 (比如图形) ,进行处理。

LeCun博士毕业后,只在Hinton的实验室做了一年博士后,就进入了工业界。

不过,他在2003年成为了纽约大学的教授,还在2012年创办了纽大数据科学中心。即便加入Facebook之后,也继续在纽大兼职。

而下一位巨头,也和LeCun一样,横跨学界和产业界。并且,他也在赫赫有名的贝尔实验室工作过。

Yoshua Bengio

Yoshua Bengio,1964年生,55岁,现在是蒙特利尔大学计算机科学与运筹学系教授。

Bengio创建了蒙特利尔学习算法研究所(MILA),担任研究所的科学主任,主持加拿大高等研究院(CIFAR)机器与大脑学习项目的研究。同时,Bengio也担任着数据评估研究所(IVADO)的科学联合主任。

同样,ACM也总结了Bengio的三个主要贡献。

序列的概率模型:

上世纪90年代,Bengio提出了序列的概率模型。他把神经网络和概率模型(例如隐马尔可夫模型)相结合,用新技术识别手写的支票。外界认为,这是20世纪90年代神经网络的巅峰之作,当下语音识别技术就是在它的基础上扩展的。

高维词汇嵌入和注意机制:

Bengio参与发表了一篇里程碑式的论文,A Neural Probabilistic Language Model(神经概率语言模型),把高维词嵌入 (High-Dimentional Word Embeddings) 作为词义的表征。这对NLP研究(如翻译、问答和视觉问答等任务)产生了深远的影响。

生成对抗网络(GAN):

2014年,Bengio与Ian Goodfellow一同发表的生成对抗网络 (GAN) ,引发了计算机视觉和图形学的革命。

据统计,Yoshua Bengio发表的300多篇学术文章的累计引用次数已经超过137000次。

作为教授,Bengio曾经和Ian Goodfellow、Aaron Courville等业界大神一起写出了Deep Learning,成为人手一本的“AI圣经”,不少人将这本书亲切称之为“花书”。

除了学术界,Bengio也活跃在产业界。

曾经,Bengio联合Jean-François Gagné创立了Element AI,为那些想给自家业务寻找机器学习解决方案的公司,找到AI领域的专家。

除此之外,Bengio也有许多荣誉在身。他不仅成为了加拿大皇家学院(RSC)及加拿大高等研究院(CIFAR)的院士,还在2017年获得了代表加拿大公民最高荣誉的“加拿大总督功勋奖”。

机器学习、神经网络和深度学习为何能独领风骚?在传统计算中,计算机程序使用明确、逐步的指令来指导计算机,但在深度学习中,计算机并没有明确被告知该如何解决特定任务,如对象分类。相反地,它使用学习算法来提取数据中的模式(pattern),涉及数据的输入,例如图像的像素、标注、到输出。研究人员面临的挑战是开发有效的学习算法,能够修改人工神经网络中连接的权重,所以可抓取数据中的相关模式。

Geoffrey Hinton 从 80 年代早期就致力在 AI 领域倡导机器学习方法,研究人类大脑如何发挥作用,应将其应用在机器学习系统的开发。受到大脑的启发,他和其他人提出“人工神经网络”作为机器学习研究的基石。

在计算机科学中,“神经网络”是指由在计算机模拟“神经元”的一层一层组成的系统。这些“神经元”与人类大脑中的神经元相似,通过加权连接相互影响,并通过改变连接上的权重,可以改变神经网络执行的计算,三位大牛提出使用多层构建深层网络的重要性,因此也称为“深度学习”。

三位大牛 30 年努力所奠定的概念基础和工程进步,受惠于 GPU、计算机的普及以及对大量数据集而取得显著进展,Yann LeCun 在 Geoffrey Hinton 的指导下进行博士后工作,Yann LeCun 和 Yoshua Bengio 在 90 年代初都任职于贝尔实验室,尽管没有一起工作,他们的研究也激起了相互影响。

他们三人持续探索机器学习与神经科学和认知科学的交叉,特别是他们共同参与 CIFAR 的机器和大脑学习计划。

这一次 ACM 选择深度学习理论,在深度学习领域又选择了这三位先驱,其实有更深层的意义。因为,在深度学习和神经网络领域具有突出贡献的绝不止这三位学者,而他们并称为三巨头的原因,也并不只是因为他们投入研究的时间长达40年,更是因为他们始终保有对神经网络的兴趣,在他们的名字广为世人所知的几十年时间里,他们甘于用掉人生大部份的时间坐冷板凳做研究,才推动了神经网络走向复兴。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100759
  • 图灵
    +关注

    关注

    1

    文章

    39

    浏览量

    9699

原文标题:“三巨头”齐获图灵奖!深度神经网络成为计算的关键~

文章出处:【微信号:siid_inno,微信公众号:深圳创新设计研究院】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深度学习中的卷积神经网络模型

    深度学习近年来在多个领域取得了显著的进展,尤其是在图像识别、语音识别和自然语言处理等方面。卷积神经网络作为深度学习的一个分支,因其在图像处理
    的头像 发表于 11-15 14:52 338次阅读

    如何构建多层神经网络

    构建多层神经网络(MLP, Multi-Layer Perceptron)模型是一个在机器学习深度学习领域广泛使用的技术,尤其在处理分类和
    的头像 发表于 07-19 17:19 858次阅读

    pytorch中有神经网络模型吗

    当然,PyTorch是一个广泛使用的深度学习框架,它提供了许多预训练的神经网络模型。 PyTorch中的神经网络模型 1. 引言 深度
    的头像 发表于 07-11 09:59 700次阅读

    简单认识深度神经网络

    深度神经网络(Deep Neural Networks, DNNs)作为机器学习领域中的一种重要技术,特别是在深度
    的头像 发表于 07-10 18:23 1027次阅读

    BP神经网络学习机制

    BP神经网络(Backpropagation Neural Network),即反向传播神经网络,是一种基于梯度下降算法的多层前馈神经网络,其学习机制的核心在于通过反向传播算法
    的头像 发表于 07-10 15:49 599次阅读

    深度学习与nlp的区别在哪

    深度学习和自然语言处理(NLP)是计算机科学领域中两个非常重要的研究方向。它们之间既有联系,也有区别。本文将介绍深度学习与NLP的区别。 深度
    的头像 发表于 07-05 09:47 932次阅读

    深度神经网络概述及其应用

    深度神经网络(Deep Neural Networks, DNNs)作为机器学习的一种复杂形式,是广义人工神经网络(Artificial N
    的头像 发表于 07-04 16:08 1234次阅读

    人工神经网络与传统机器学习模型的区别

    在人工智能领域,机器学习神经网络是两个核心概念,它们各自拥有独特的特性和应用场景。虽然它们都旨在使计算机系统能够自动从数据中学习和提升,但它们在多个方面存在显著的区别。本文将从多个维
    的头像 发表于 07-04 14:08 1288次阅读

    深度神经网络与基本神经网络的区别

    在探讨深度神经网络(Deep Neural Networks, DNNs)与基本神经网络(通常指传统神经网络或前向神经网络)的区别时,我们需
    的头像 发表于 07-04 13:20 873次阅读

    卷积神经网络的基本结构和工作原理

    和工作原理。 1. 引言 在深度学习领域,卷积神经网络是一种非常重要的模型。它通过模拟人类视觉系统,能够自动学习图像中的特征,从而实现对图像的识别和分类。与传统的
    的头像 发表于 07-03 09:38 634次阅读

    深度学习与卷积神经网络的应用

    随着人工智能技术的飞速发展,深度学习和卷积神经网络(Convolutional Neural Network, CNN)作为其中的重要分支,已经在多个领域取得了显著的应用成果。从图像识别、语音识别
    的头像 发表于 07-02 18:19 910次阅读

    卷积神经网络的基本结构及其功能

    。 引言 深度学习机器学习的一个分支,它通过模拟人脑神经网络的结构和功能,实现对数据的自动学习
    的头像 发表于 07-02 14:45 1637次阅读

    深度神经网络模型有哪些

    、Sigmoid或Tanh。 卷积神经网络(Convolutional Neural Networks,CNN): 卷积神经网络深度学习中最重
    的头像 发表于 07-02 10:00 1401次阅读

    神经网络架构有哪些

    神经网络架构是机器学习领域中的核心组成部分,它们模仿了生物神经网络的运作方式,通过复杂的网络结构实现信息的处理、存储和传递。随着
    的头像 发表于 07-01 14:16 711次阅读

    详解深度学习神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线
    的头像 发表于 01-11 10:51 2053次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用