微软发布自研AI芯片——Azure Maia100

人工智能

636人已加入

描述

微软自研AI 芯片传闻未曾停过,在一年一度Microsoft Ignite 2023 大会上,终于发布了用于数据中心的AI 芯片Azure Maia 100 和云端运算处理器Azure Cobalt 100。

Azure Maia 是一款AI 加速器芯片,用于OpenAI 模型、ChatGPT、Bing、GitHub Copilot 等AI 工作负载,Azure Maia 100 则是该系列第一代产品,采取5 纳米制程生产。

Azure Cobalt 为Arm 架构的云端运算处理器,配备128 个运算核心,与目前几代Azure Arm 芯片相比,效能提升40%,为Microsoft Teams、Azure SQL 等服务提供支援,这2 款芯片均由台积电生产,微软已在设计第二代版本。

领导团队开发新芯片的微软AHSI(Azure Hardware Systems and Infrastructure)副总裁Rani Borkar 指出,微软已在Bing 和Office 产品测试新款AI 芯片,微软主要AI 合作伙伴、ChatGPT 开发商OpenAI 也以GPT 3.5 Turbo 进行测试。Azure Maia 和Azure Cobalt 预计明年初正式用于微软数据中心,成为Azure 云端运算服务的一部分。

Rani Borkar 接受外媒采访表示,对具规模的微软而言,优化和整合硬件的每个要素可提供最佳运算效能,同时避免供应链瓶颈,Azure Maia 和Azure Cobalt 可为客户提供基础设施新的选择。

自研芯片可获得硬件性能和价格优势,同时避免公司过度依赖任何一家供应商。目前AI 产业高度依赖NVIDIA GPU 因此凸显问题,亚马逊和Google 已有自研芯片的具体成果,亚马逊2015 年收购以色列芯片新创Annapurna Labs,为客户提供云端和AI 芯片的服务,Google 从2018 年起允许客户采用自研芯片TPU(Tensor Processing Unit),微软急起直追终于跟上脚步。

除此之外,微软称,作为定制芯片的补充,微软正在拓展与芯片供应商的合作伙伴关系,为客户提供基础设施选项。

微软表示,将在微软智能云Azure中添加AMD MI300X加速虚拟机(VMs)。ND MI300虚拟机(VMs)将采用AMD最新的GPU——AMD Instinct MI300X,旨在加速AI工作负载的处理,以实现高范围的AI模型训练和生成式推理。

为英伟达H100 Tensor Core GPU打造的全新NC H100 v5虚拟机系列开放预览,将提高大中型AI训练和生成式推理的性能、可靠性和效率。微软称还发布了ND H200 v5虚拟机系列计划,这是一款AI优化虚拟机,配备了即将推出的英伟达H200 Tensor Core GPU。

微软过去曾开发客制化芯片,包括与AMD 合作设计Xbox 处理器,以及为HoloLens 和Xbox Kinect 运动控制器开发专用芯片。随着Azure Maia 和Azure Cobalt 正式发表,微软自研芯片版图更加完整。

编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分