数字化观察网 - 信息化观察网 - 引领行业改革
菜单导航

微软10亿美元投资OpenAI砸出响:自研超级计算机跻

作者: 数字化观察网 发布时间: 2020年05月22日 22:18:13

原创 德清、徐丹 机器之能

微软10亿美元投资OpenAI砸出响:自研超级计算机跻

昨晚,微软 Build 2020 大会发布的超级计算机则无疑成为了 Azure 在 AI 方面的一把利器,拥有超过 285000 个 CPU 内核、10000 个 GPU 和 400Gbps 的网络连接,居于世界超算 Top5 之列。
云计算厂商之所以需要大刀阔斧地建立超算中心,其原因在于通过云化的形式和高效的软件服务,云计算厂商可以将超大规模的计算力共享给客户,重复利用,灵活调度,以获得最大的经济效益。
目前,微软的超级计算机主要用于训练超大规模 AI 模型(这同时也是 OpenAI 的强项),与上一代 AI 模型相比,超大型 AI 模型是对现有 AI 模型的升级,它具有自我监督的优势,这意味着它们可以通过暴露数据各部分之间的关系来从数据生成标签,这被认为对实现人类智能至关重要。
撰文 | 德清、徐丹
编辑 | 四月
受新冠疫情的影响,门票原本为 2395 美元的微软 Build 2020 完全在线上举行。
虽然变为线上举行,但微软对于 Build 2020 依旧充满了诚意,纳德拉这样说道:这是另一种以新方式交付的 Microsoft Build。举办数字活动为开发人员社区提供了难得的机会,他们可以聚在一起以获得真正的全球体验。而由此 Build 2020 也比以往更加注重开发人员。

微软10亿美元投资OpenAI砸出响:自研超级计算机跻

比肩全球 Top 5 的 AI 超级计算机、Windows 应用生态 UI 和 API 大统一、Edge 浏览器多项功能更新、Microsoft Teams 大升级、诸多基于 Azure 云计算的功能更新……一连串的产品发布、升级,也让 Build 2020 有了颇多看点。

联手 OpenAI,自研超算中心
毫无疑问的是,在这场硬核的开发者大会上,微软与 OpenAI 共同构建的 AI 超级计算机吸引了最多的眼球,被微软称之为可跻身全球前五。
2019 年 7 月 22 日,微软宣布将向 OpenAI 投资 10 亿美元,以共同开发用于 Microsoft Azure 云平台的新技术,作为交换,OpenAI 同意将其部分知识产权许可给 Microsoft,然后该公司将其商业化并出售给合作伙伴,并在 OpenAI 致力于开发下一代计算硬件时在 Azure 上训练和运行 AI 模型。

微软10亿美元投资OpenAI砸出响:自研超级计算机跻

OpenAI LP CEO、原 YC 总裁 Sam Altman 与微软公司 CEO 萨提亚·纳德拉(Satya Nadella)
在微软的 Build 2020 开发者大会上,合作伙伴关系的第一个成果以一台新型超级计算机的形式得以展示。
该计算机专为训练 OpenAI 的 AI 模型而设计,是单个系统,算力十分强大,它拥有超过 285000 个 CPU 内核、10000 个 GPU 和 400Gbps 的网络连接。

微软10亿美元投资OpenAI砸出响:自研超级计算机跻

根据「TOP 500」组织编制的全球超级计算机 500 强榜单显示,算力排名前五的计算怪兽分别包括:
1)美国橡树岭国家实验室的Summit系统(148.6 petaflops);
2)Lawrence Livermore国家实验室的Sierra(94.6 petaflops);
3)由中国国家并行计算机工程与技术研究中心(NRCPC)开发的“神威-太湖之光”超级计算机(93.0 petaflops)
4)由中国国防科技大学(NUDT)开发的天河2A(61.4 petaflops)
5)戴尔制造的Frontera Dell C6420(23.5 petaflops)。
微软表示,与世界 TOP500 超级计算机相比可比肩 Top 5,则意味着它在中国国家超级计算机中心的天河 2A 后面,在德克萨斯高级计算机中心的 Frontera 之前,其算力峰值每秒可以执行 23.5 到 61.4 个万亿浮点运算。
从性能上来说,得益于在 Azure 上托管,这台超级计算机拥有现代云计算基础设施的各种优点,包括快速部署、可持续发展的数据中心、并可以访问所有 Azure 服务。
超高性能将用来训练更高级别的超大规模人工智能模型,并为机构和开发人员提供了超大型 AI 模型和训练这一模型所需的架构。
通过培训优化工具和超级计算资源,数据科学家和商业客户便可以轻松利用 Scale AI 功能。深入了解语言语法,识别概念中的差别,完成复杂任务。
所谓超大型人工智能模型是针对小型模型而言的,小型人工智能模型使用许多带有标签的示例来学习单个任务,例如在语言之间进行翻译,识别对象等。
而超大型模型可以通过检查数十亿页的公开文本来学习。这种类型的模型可以如此深入地吸收语言,语法,知识,概念和上下文的细微差别,以至于可以胜任多项任务:总结冗长的讲话,调节实时游戏聊天中的内容,在成千上万个法律文件中甚至找到相关段落从搜寻 GitHub 生成代码。
热门标签