0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

MIT研发“神经架构搜索”算法,将AI优化的AI设计过程加速240倍或更多

IEEE电气电子工程师 来源:YXQ 2019-04-15 16:49 次阅读

自2017年以来,AI研究人员一直在使用AI神经网络来帮助设计更好、更快的AI神经网络。迄今为止,应用AI来实现更好的AI很多程度上是一种学术追求——主要是因为这种方法需要数万个GPU小时。

然而,下个月,麻省理工学院(MIT)的一个研究小组将展示一种所谓的“神经架构搜索”算法,该算法可以将AI优化的AI设计过程加速240倍或更多。这将使AI更快、更准确,在实际应用中达到可应用于图像识别算法和其他相关应用的程度。

MIT电子工程和计算机科学助理教授Song Han表示:“在模型大小、推理延迟、准确性和模型容量之间存在各种各样的权衡。”他补充说:“(这些)加起来就是一个巨大的设计空间。以前,人们设计了基于启发法的神经网络。神经架构搜索试图将这种劳动密集型的、基于启发法的探索转变为基于学习的、基于AI的设计空间探索。就像AI可以学习下围棋一样,AI也可以学习如何设计一个神经网络。”

就像在围棋和国际象棋中获胜的AI程序已经向这些游戏的大师们教授新策略一样,AI优化的AI设计结果为AI神经网络设计提供了新的方法。

MIT的新算法加速了其开发的AI神经网络的类型为卷积神经网络(CNN)。CNN通常是用于图像识别程序的首选神经网络。除了图像和视频领域的应用外,CNN在自然语言处理和药物发现等领域也有所应用。

MIT的Han指出,一旦他们的算法建立起最优的CNN,所得到的系统很可能将图像分类的速度提高到其他神经架构搜索构建的AI的1.8倍。

Han说,其团队能够以如此惊人的速度精确定位最优的CNN设计,得益于三个重要的想法。

首先,他们减少了运行神经架构搜索的GPU的内存负载。一个标准的神经结构搜索可以同时检查网络中神经层之间所有可能的连接。相反,Han的团队每次只在GPU的内存中保存一条路径。这个技巧可以在仅使用十分之一内存空间的情况下对参数空间进行完整的搜索,从而使他们的搜索覆盖更多的网络配置,而不会耗尽芯片上的空间。

他们的第二个锦囊妙计是从已被丢弃的神经网络搜索中删除整个路径,这显著加快了神经网络搜索的速度。(通常,神经结构搜索只丢弃单个“神经元”,删除掉所有次优的神经网络连接。)

第三个创新之处涉及使神经网络搜索意识到AI系统可能正在运行的每种类型硬件的延迟时间——无论是直接的CPU还是用于移动平台的GPU加速系统。

Han说,令人惊讶的是,关于一些类型的图像识别神经网络的传统观点是错误的。从某种意义上说,AI网络设计师在设计主要运行在GPU系统上的网络时,他们的想法仍然停留在CPU时代。

CNN在其图像识别算法中使用过滤器,这些过滤器是由3×3、5×5或7×7像素组成的正方形网格。传统上,很少使用7×7大小的过滤器,因为人们认为运行多层3×3过滤器比运行单个7×7过滤器更快。

然而,Han说,AI优化的AI使用了相当数量的7×7过滤器——Han认为,这是当今大多数AI计算中GPU占主导地位的一个原因。

“我们发现,在GPU上运行多层7×7过滤器更容易,因为GPU具有很大的并行性,”Han说。“而且调用一个大型内核调用比调用几个小型内核调用更有效。”

在谈到他们团队的算法时,Han说:“它为人类工程师设计未来的神经网络提供了良好的反馈。”然而,这并不意味着AI能够构建其自身的更强大版本。(那些担心会发生AI大灾难的人,可能无法从目前的研究中找到对其观点有利的证据。)

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    30824

    浏览量

    268977
  • MIT
    MIT
    +关注

    关注

    3

    文章

    253

    浏览量

    23390

原文标题:MIT研发出一种“神经架构搜索”算法  使用AI来实现更好的AI

文章出处:【微信号:IEEE_China,微信公众号:IEEE电气电子工程师】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA AI加速推进药物研发

    在当前的医疗健康领域,AI 的重要性愈发凸显。NVIDIA AI加速推进药物研发,致力于减少药物的研发时间和成本,使
    的头像 发表于 11-19 16:07 230次阅读

    小鹏汽车2024 AI科技日:图灵AI芯片进展公布,预计AI汽车市场迎来巨变

    在11月6日下午的2024小鹏AI科技日上,小鹏汽车揭晓了其图灵AI芯片的最新研发成果。小鹏汽车强调,这款图灵芯片是专为AI应用而生,配备了40核处理器,能够本地运行参数高达30B的大
    的头像 发表于 11-07 14:56 865次阅读

    未来AI大模型的发展趋势

    上得到了显著提升。未来,算法架构的进一步优化推动AI大模型在性能上实现新的突破。 多头自注意力机制、前馈
    的头像 发表于 10-23 15:06 607次阅读

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    的深入发展。 3. 挑战与机遇并存 尽管AI在生命科学领域取得了显著的成果,但也面临着诸多挑战。例如,数据隐私、算法偏见、伦理道德等问题都需要我们认真思考和解决。同时,如何更好地AI
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    偏见、伦理道德等问题。此外,如何更好地AI与科学研究人员的传统工作模式相融合,也是一个亟待解决的问题。未来,随着技术的不断进步和应用场景的拓展,AI for Science有望在更多
    发表于 10-14 09:16

    平衡创新与伦理:AI时代的隐私保护和算法公平

    ,如果医生和患者都能了解AI推荐治疗方案的原因,大大增加对技术的接受度和信任。 算法公平性的保障同样不可或缺。AI系统在设计时就需要考虑到多样性和包容性,避免因为训练数据的偏差而
    发表于 07-16 15:07

    微软被曝AI研发外包给OpenAI

    网络安全公司Okta的首席执行官托德·麦金农(Todd McKinnon)在CNBC的专访中分享了关于当前科技巨头在人工智能(AI)领域的战略布局的见解。他特别指出,谷歌在捍卫其搜索引擎霸主地位的同时,正努力保持AI
    的头像 发表于 06-12 15:57 373次阅读

    OpenAI否认推出搜索产品GPT-5

    此消息对致力于ChatGPT嵌入必应搜索引擎的微软或许有所积极影响。早期已有报导披露,该AI企业有意研发竞品以抗衡谷歌搜索引擎。
    的头像 发表于 05-13 15:14 386次阅读

    risc-v多核芯片在AI方面的应用

    得RISC-V多核芯片能够更好地适应AI算法的不同需求,包括深度学习、神经网络等,从而提高芯片的性能和效率,降低成本,使AI边缘计算晶片更具竞争力。 再者,RISC-V的多核设计可以进
    发表于 04-28 09:20

    开发者手机 AI - 目标识别 demo

    Network Runtime 神经网络运行时,作为中间桥梁连通上层AI推理框架和底层加速芯片,实现AI模型的跨芯片推理计算。提供统一AI
    发表于 04-11 16:14

    FPGA在深度学习应用中取代GPU

    系统等其他行业也面临着类似的挑战。 FPGA 和深度学习 FPGA 是可定制的硬件设备,可对其组件进行调节,因此可以针对特定类型的架构 (如 卷积神经网络) 进行优化。其可定制性特征降低了对电力的需求
    发表于 03-21 15:19

    NanoEdge AI的技术原理、应用场景及优势

    ,可以减少数据在传输过程中被窃取篡改的风险,提高数据安全性。 - 低能耗:通过优化神经网络模型和硬件设计,NanoEdge AI 可以在有
    发表于 03-12 08:09

    国科微:持续优化边缘AI战略布局

    国科微近日在接受调研时透露,公司正积极推进搭载自研NPU架构的芯片研发,主要聚焦在边缘侧应用。公司表示,持续优化边缘AI战略布局,加快
    的头像 发表于 02-23 11:23 847次阅读

    优美科携手微软打造AI平台,加速电动汽车电池材料研发

    优美科,一家在电动汽车电池材料领域处于领先地位的公司,近日与全球科技巨头微软正式签署合作协议。双方共同开发一个基于人工智能(AI)的电池材料研发平台,旨在通过AI技术
    的头像 发表于 02-18 17:29 726次阅读

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGA的AI加速源代码

    OMAP-L138(定点/浮点DSP C674x+ARM9)+ FPGA处理器的开发板。 编写一个用于AI加速的FPGA程序是一个相当复杂的过程,涉及硬件描述语言(如VHDLVer
    发表于 02-12 16:18