NVIDIA发布Magnum IO软件套件,帮助数据科学家及AI和高性能计算研究者解决数据瓶颈问题
全新产物使海量数据的迁徙速率比之前快20倍 NVIDIA于今天宣布NVIDIA Magnum IO软件套件。该产物让数据科学家及AI和高机能计较研究者可以在数分钟内处理赏罚好以往必要数小时才气处理赏罚完毕的海量数据。 Magnum IO专为办理存储和输入/输出(I/O)碰着瓶颈这一题目举办了优化。优化之后,执行财政说明、天气建模等伟大的、必要处理赏罚大量数据集的高机能计较事变负载时,多处事器、多GPU计较节点的数据处理赏罚速率比之条件高了20倍。 Magnum IO是NVIDIA与浩瀚收集和存储行业率领企业(包罗DataDirect Networks、Excelero、IBM、Mellanox和WekaIO)密合适作的成就。 NVIDIA首创人兼首席执行官黄仁勋暗示:“AI等数据驱动型科学的焦点是处理赏罚大量的数据,这些数据也许是网络来的,也也许是模仿的。然而,跟着数据的局限和速率泛起指数级的增添,数据处理赏罚自己已成为数据中心所要面对的最大挑衅,同时也是最首要的本钱之一。” 他还暗示:“顶级的计较必要顶级的I/O。Magnum IO可以或许为I/O与存储带来具有革命性计较机能的NVIDIA GPU加快。此刻,AI研究者和数据科学家可以用心完本钱身的事变,无需再守候数据。” Magnum IO的焦点是GPUDirect。它为数据提供了一条路径,这条路径可以绕过CPU,而在GPU、存储和收集装备所提供的“开放式高速公路”长举办传输。GPUDirect由点对点和RDMA组件构成,兼容多种通讯互联产物与API,包罗NVIDIA NVLink和NCCL以及OpenMPI和UCX。 其最新组件GPUDirect Storage使研究者可以或许在会见存储时绕过CPU,快速会见用于模仿、说明或可视化的数据文件。 NVIDIA Magnum IO软件现已上市,但GPUDirect Storage仅为部门用户提供了早期会见权限。NVIDIA打算在2020年上半年向全部客户提供GPUDirect Storage。 (编辑:河北网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |