加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 云计算 > 正文

NVIDIA再放“大招”,拓宽高机能计较界线

发布时间:2019-11-23 12:21:43 所属栏目:云计算 来源:IT168
导读:11月19日,在丹佛2019环球超等计较大会(SC19)上,NVIDIA首创人兼首席执行官黄仁勋举办了主题演讲,并公布了NVIDIA在高机能计较规模的最新动态与成就。这些成就表白,NVIDIA正在将自身手段赋能给更多生态搭档,推进高机能计较规模的全面成长,同时辅佐人

11月19日,在丹佛2019环球超等计较大会(SC19)上,NVIDIA首创人兼首席执行官黄仁勋举办了主题演讲,并公布了NVIDIA在高机能计较规模的最新动态与成就。这些成就表白,NVIDIA正在将自身手段赋能给更多生态搭档,推进高机能计较规模的全面成长,同时辅佐人工智能专家、数据科学家更高效地开展事变。

在数字经济期间,计较力已成为支撑各规模成长与转型的重要基石,在很多科研应用以及贸易场景中已不行或缺。“高机能计较规模正在同时朝各个偏向扩展。现实上,高机能计较已无处不在,好比超等计较中心、云和边沿等。”黄仁勋在演讲中暗示:“全部这统统都在产生巨变。”

1601150

高机能计较的飞速成长与应用遍及,为更多规模带来了庞大的动能。对付NVIDIA来说,其环绕GPU而睁开的一系列软硬件创新以及生态相助,让我们看到了NVIDIA深耕在高机能计较规模的气力与刻意。

新的参考计划平台:为Arm处事器提供GPU加快

在SC19上,NVIDIA宣布了一款参考计划平台,使企业可以或许快速构建GPU加快的Arm处事器,以满意日益多样化的科学和家产应用需求。该平台由硬件和软件基本模块构成,可以或许满意高机能计较(HPC)社区对付范例越发多样化的CPU架构日益增添的需求。通过该平台,超等计较中心、超大型云运营商和企业可以或许将NVIDIA加快计较平台的上风与最新的Arm处事器平台相团结。

为了构建这一参考平台,NVIDIA与Arm及其生态相助搭档(包罗Ampere、富士通和Marvell)联手,以确保NVIDIA GPU与Arm处理赏罚器之间的无缝协作。该参考平台还得益于与HPE旗下公司Cray和HPE这两家早期回收Arm处事器的供给商之间的细密相助。另外,很多高机能计较软件公司已行使NVIDIA CUDA-X库来构建可在Arm处事器上运行、并可通过GPU实现的打点和监控器材。

黄仁勋暗示:“高机能计较正在崛起。呆板进修和AI规模的打破正在从头界说科学研究要领,而且也许带来冲感民气的新架构。从超大局限云到百万兆级超等计较,NVIDIA GPU与ARM的组合让创新者们可以或许为不绝增进的新应用建设体系。”

宣布云上GPU超算:让每位科学家都能拥有一台超等计较机

会上,NVIDIA还宣布了在Microsoft Azure云上的一种新型GPU加快超等计较机。此次宣布的全新NDv2实例是Azure上局限最大的一次陈设,该产物专为处理赏罚要求苛刻的AI和高机能计较应用而计划,是环球速率最快的超等计较机之一。它能在一个Mellanox InfiniBand后端收集上提供多达800个互联的NVIDIA V100 Tensor Core GPU。

这是初次用户可以按照需求,在本身的桌面上租用整台AI超等计较机,并且其机能与那些必要数个月时刻才气完成陈设的大型当地超等计较机相匹配。

这款新产物异常合用于伟大的AI、呆板进修和高机能计较事变负载。对比基于CPU的传统计较,它具有明显的机能和本钱上风。对付必要快速办理方案的AI研究职员来说,它可以快速启动多个NDv2实例,并在短短几小时内完成伟大的会话式AI模子的实习。

此前,微软和NVIDIA的工程师已在该集群的预览版本上行使64个NDv2实例举办了尝试。他们用了约三小时完成了BERT会话式AI模子的实习。可以或许实现这一速率的缘故起因之一是行使了NCCL(一款NVIDIA CUDA X库)提供的多GPU优化以及高速Mellanox 互联办理方案。

另一个利益是客户可以行使多个NDv2实例运行伟大的高机能计较事变负载,好比LAMMPS,这是一种风行的分子动力学应用措施,用于在药物开拓和试探等规模中模仿原子级物质。对比于一个专用于特定应用措施(如深度进修)的、未行使GPU的 HPC计较节点,单个NDv2实例就能实现高达一个数目级的速率晋升。假如必要举办大局限的模仿,还可以将这一机能线性扩展至一百个实例。

全部NDv2实例都可以或许受益于NVIDIA NGC容器注册表和Azure Marketplace中所提供的TensorFlow、PyTorch和MXNet等GPU优化高机能计较应用、呆板进修软件及深度进修框架。该注册表还提供Helm图表,让用户在Kubernetes集群上可以轻松地陈设AI软件。

NVIDIA再放“大招”,拓宽高机能计较界线

全新软件套件,将数据移动时刻从数小时收缩至几分钟

其它一项重磅宣布是NVIDIA Magnum IO软件套件。该产物让数据科学家及AI和高机能计较研究者可以在数分钟内处理赏罚好以往必要数小时才气处理赏罚完毕的海量数据。

Magnum IO专为办理存储和输入/输出(I/O)碰着瓶颈这一题目举办了优化。优化之后,执行财政说明、天气建模等伟大的、必要处理赏罚大量数据集的高机能计较事变负载时,多处事器、多GPU计较节点的数据处理赏罚速率比之条件高了20倍。

Magnum IO是NVIDIA与浩瀚收集和存储行业率领企业(包罗DataDirect Networks、Excelero、IBM、Mellanox和WekaIO)密合适作的成就。

Magnum IO的焦点是GPUDirect Storage。它提供了一条连通GPU内存和存储的直接数据路径,使数据可以或许绕过CPU,在由GPU、存储和收集装备提供的“开放式高速公路”上快速传输,快速会见用于模仿、说明或可视化的数据文件。GPUDirect Storage由点对点和RDMA组件构成,兼容多种通讯互联产物与API,包罗NVIDIA NVLink和NCCL以及OpenMPI和UCX。

NVIDIA Magnum IO软件现已上市,但GPUDirect Storage仅为部门用户提供了早期会见权限。NVIDIA打算在2020年上半年向全部客户提供GPUDirect Storage。

NVIDIA与高机能计较

跟着数据的增添,以及对数据代价的不绝发掘,高机能计较拥有辽阔的成长与应用远景。自从开始机关高机能计较规模往后,我们可以看到,NVIDIA就一连饰演着行业赋能者与驱动者的脚色,通过聚积生态的力气,不绝为整个高机能计较规模的良性成长提供助力,为更多高机能计较的用户带来便利。此次NVIDIA在SC19上的宣布,再次印证了这一点。

【凡本网注明来历非中国IDC圈的作品,均转载自其余媒体,目标在于转达更多信息,并不代表本网拥护其概念和对其真实性认真。】

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读