加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 正文

NVIDIA集成AI超算中心经验,打造AI就绪型数据中心

发布时间:2019-08-01 06:56:24 所属栏目:创业 来源:智东西
导读:副问题#e# 传统数据中心向人工智能(AI)转型已是局面所趋。 一方面,从智能客服、智能安防、智能风控、智能运维到智能质检,愈加富厚的智能化应用致使存储需求泛起指数级增添,并对数据中心的算力提出新的挑衅。 另一方面,AI 正冲破传统数据中心的打点和
副问题[/!--empirenews.page--]

NVIDIA集成AI超算中心履历,打造AI停当型数据中心

传统数据中心向人工智能(AI)转型已是局面所趋。

一方面,从智能客服、智能安防、智能风控、智能运维到智能质检,愈加富厚的智能化应用致使存储需求泛起指数级增添,并对数据中心的算力提出新的挑衅。

另一方面,AI 正冲破传统数据中心的打点和运营模式,完成更为精准的体系调优、妨碍预判等使命,更换更多人力,镌汰能耗和资源挥霍,更洪流平开释出产力。

作为 AI 期间的基本办法,AI 硬件正成为越来越大都据中心扩容建树的要害地址。尤其是能源、银行、保险、制造、电信、医疗等重度存储用户,急需加快 AI 的基本架构方案。

当超强计较力成为数据中心的刚需,NVIDIA GPU 依附强盛的并行计较和浮点手段打破了深度进修的算力瓶颈,成为 AI 硬件的首选。

然而,对付很多传统数据中心而言,陈设包括 AI 硬件的基本办法,必要淹灭很多时刻与人力。

对此,NVIDIA 基于 GPU 软硬件生态体系,提供了一站式交付节点办理方案 DGX POD。

这一方案可以大大节减构建基本办法所耗费的时刻,辅佐数据中心轻松快速举办 AI 陈设,为扩展多 GPU 处事器节点提供更多支持。

本期的智能内参,我们保举《NVIDIA DGX POD 数据中心参考计划》白皮书,从传统数据中心的 AI 转型之困着手,团结 DGX POD 的应用实例,解读 NVIDIA DGX POD 交付节点的焦点亮点,为亟待快速转型 AI 的数据中心架构师,以及筹备构建 AI 停当型数据中心提供参考。如需查阅此白皮书《NVIDIA DGX POD 数据中心参考计划》,可直接点击:NVIDIA DGX POD 数据中心参考计划白皮书 - 白皮书下载 - 英伟达AI计较专区 - 智对象下载。

以下为智能内参清算泛起的干货:

NVIDIA集成AI超算中心履历,打造AI停当型数据中心

数据中心 AI 转型遭遇困局

大数据、AI 与云计较等新兴技能卷起新的海潮,在种种数据中心中形成连锁回响。海量数据处理赏罚使命涌入数据中心,面临人工智能应用的实习和推理,令传统的CPU 处事器难以招架。

深度进修算法属于计较麋集型算法,与 NVIDIA GPU 计较架构异常契合。已往 CPU 必要花数十天完成的计较使命,通用 GPU 只用几小时就能完成,这大幅晋升深度进修等并行处理赏罚数据要领的计较服从,使得以 GPU 为基本的装备日渐成为各大数据中心举办深度进修实习的首选。

然而,即便陈设了强盛的硬件装备,也不料味着数据中心的 AI 转型打算就万事俱备了,尚有一个要害题目摆在面前——架构计划。

数据中心必要思量的身分远不止算力,还需分身收集、存储、电源、散热、打点和软件等方面题目。

硬件组合不是简朴粗暴的积木堆叠,并不是说计较节点越多,机能就会随之线性增添。其计较机能会受制于高速互联收集,一旦呈现数据拥堵,整机体系的服从都也许被拖累。其它,过多计较硬件堆叠,也许导致功耗过大,倒霉于日后的运营。

因此,数据中心必需思索怎样打造了降本增效的最佳方法,将各类硬件资源协同组合,在不变安详的状态下,以超低耽误和高带宽会见数据集。

这对付缺乏 AI 陈设履历的传统数据中心而言,无疑是个不小的挑衅。假如 DIY GPU 计较节点,不只必要淹灭人力和时刻本钱,还要思量计较、存储、互换机等各类硬件装备的集成兼容题目。

对付这一痛点,NVIDIA 提供了一个颇有吸引力的办理方案。

它通过与领先的存储、收集互换技能提供商相助,提供一系列 DGX POD 数据中心交付节点计划参考架构,将 NVIDIA 恒久蕴蓄的超大局限数据中心 AI 陈设履历,转化为可复制方案,无论是大中小型数据中心,均可以直接参考行使。

NVIDIA集成AI超算中心履历,打造AI停当型数据中心

NVIDIA AI 超等计较机构建履历转换

DGX POD 交付节点(Point of Delivery)是一种经优化的数据中心机架,包括多台 DGX-1 或 DGX-2 处事器、存储处事器和收集互换机等最佳实践。

NVIDIA集成AI超算中心履历,打造AI停当型数据中心

▲ DGX POD 参考架构正面图

这是 NVIDIA 构建大量超大局限 GPU 加快计较节点的履历之集大成者。NVIDIA 曾成立了大型的 AI 数据中心,包括数千台领先的 DGX 处事器加快计较节点。

本年6月,NVIDIA 公布推出环球速率排名第22位的超等计较机 DGX SuperPOD,为企业快速陈设自动驾驶汽车项目,提供平等巨细的超算无法对抗的 AI 机能。

SATURNV 亦是 NVIDIA 基于 DGX 体系构建的 AI 超等计较机,支持自动驾驶汽车、呆板人、显卡、HPC 等多规模的 NVIDIA 内部 AI 研发。早在2016年推出之际,DGX SATURNV 就登上 Green 500 超算榜第一,被评为环球最经济高效的超算,整体运算速率位列第28位,是最快的 AI 超算。

基于行使 SATURNV 所遵循的计划原则和架构,NVIDIA 在短短三周内就打造出一套基于 NVIDIA DGX-2 设置的全新体系 DGX SuperPOD。近期 NVIDIA 借助一套基于 DGX-2 的设置在 MLPerf 基准测试中创下六项 AI 机能记录。

在将 DGX SATURAN 打造成全部企业都可复制的、履历证的计划进程中,NVIDIA 颠末实地检讨蕴蓄了富厚的履历,并将计较、收集、存储等多方面的最佳实践,齐集于 NVIDIA DGX POD 的计划之中。

现在,包罗 Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp 和 Pure Storage 等在内的业内数据中心率领者已环绕 DGX POD,推出了基于其各自特有技能的相干产物。

这些集成体系均为客户提供颠末履历验证的靠得住要领,这意味着,每个企业都能量身定制完全适配自身需求的 AI 超算中心。

譬喻,基于 DGX POD,NetApp 推出了 NetApp ONTAP AI 融合基本架构。其由 NVIDIA DGX-1 处事器、 NetApp 云互联存储体系提供支持,是 NVIDIA 和 NetApp 连系开拓和验证的架构。

借助这一架构,企业可以从小局限起步举办无缝扩展,智能打点跨边沿、焦点和云以及反向数据传输的完备深度进修数据管道,简化 AI 陈设。

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读