NVIDIA集成AI超算中心履历,打造AI停当型数据中心
借助参考框架,其 AI 项目所带来的对计较、存储、收集办法的需求均获得满意。颠末在16台 NVIDIA GPU 上接管数百小时的音乐实习,这位非凡的音乐喜爱者,在“听音识门户”的精确度上,乃至逾越了人类和传统编程。 AI 软件:调优 DGX 硬件,低落打点门槛 除了计划优化的 DGX 处事器、存储处事器和收集互换机组合 ,DGX POD 上还运行一整套适配的 NVIDIA AI 软件仓库,极大简化 DGX POD 的一般操纵与维护,为大局限多用户 AI 软件开拓团队提供高机能的深度进修实习情形。 ▲ NVIDIA AI 软件仓库 NVIDIA AI 软件包罗 DGX 操纵体系(DGX OS)、集群打点和和谐器材、事变负载调治器、来自 NVIDIA GPU Cloud (NGC) 容器注册表的和优化容器,可觉得行使者提供优化的操纵体验。 DGX POD 打点软件可按照必要,自动创新安装 DGX OS。DGX OS 是 NVIDIA AI 软件仓库的基本,基于优化版 Ubuntu Linux 操纵体系构建,并专门针对 DGX 硬件举办调优,支持各类 NVIDIA 库和框架及 GPU 的容器举办时。 ▲ DGX POD 打点软件层 DGX POD 打点软件层由 Kubernete 容器和谐框架上运行的各项处事构成,可通过收集(PXE)为动态主机设置协议(DHCP)和全自动 DGX OS 软件设置提供处事。 通过行使其简朴的用户界面,打点员可在由 Kubernetes 和 Slurm 打点的域中移动 DGX 处事器。将来 Kubernetes 加强成果估量在纯 Kubernetes 情形中,支持全部 DGX POD 用例。 DGX POD 上的 NVIDIA AI 软件可借助 Ansible 设置打点器材举办打点,白皮书中有提供其开源的软件打点仓库和文档在 Github 上的链接。 智对象以为,DGX POD 一站式交付节点办理方案,不只能加快数据中心的 AI 陈设服从,同时也通过提供更强盛的算力,大幅度晋升数据的操作服从。 当前,很大都据中心方才踏入或打算踏入 AI 的大门,而当下主流的深度进修算法必需配备专业的 AI 基本办法。基于 NVIDIA DGX POD 的架构方案,对付快速构建大局限 AI 计较集群很是具有参考代价。跟着此类基本架构逐渐遍及,更大都据中心将得以消除装备与成本预算之间的鸿沟。 这只是 NVIDIA 打造 AI 停当型数据中心宏图的重要版面之一,操作 DGX-1、DGX-2 处事器和NVIDIA GPU 大局限计较架构的成长前进,NVIDIA 正将呆板进修、深度进修和高机能计较(HPC)扩展到更多的数据中心,为金融、能源、制造、电信、医疗、科学计较等更多行业的出产力晋升提供动力引擎。 【凡本网注明来历非中国IDC圈的作品,均转载自其余媒体,目标在于转达更多信息,并不代表本网拥护其概念和对其真实性认真。】 延长阅读:
(编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |