加速HPC与AI融合 NVIDIA发布全系列新品赋能科学计算
副问题[/!--empirenews.page--]
每年ISC、SC发布的TOP榜单可谓是HPC规模最受存眷的变乱之一,由于业界不仅存眷厂商的排名,还存眷这些上榜的体系背后的架构环境,好比行使了什么CPU和GPU等。 在本年ISC2020上,TOP10的HPC中,有8台体系回收了NVIDIA GPU、InfiniBand收集技能,或同时回收了两种技能,个中包罗美国、欧洲和中国领跑的HPC体系。 现在,AI和数据说明已成为科学计较中的新需求,而NVIDIA一向不绝创新,借助软硬团结的办理方案,加快了HPC与AI的融合历程。而在克日进行的SC2020时代,NVIDIA则推出了包罗NVIDIA A100 80GB GPU、NVIDIA HGX AI超等计较平台、NVIDIA DGX Station A100以及NVIDIA Mellanox 400G InfiniBand等一系列的产物,将AI超等计较推向了一个新的高度。 AI超等计较环球最强GPU:NVIDIA A100 80GB GPU 针对此刻日益负载的HPC与AI事变负载,出格是面向深度进修与呆板进修等应用,NVIDIA推出了A100 80GB GPU,其可以称为今朝AI超等计较环球最强GPU。由于,A100 80GB GPU基于NVIDIA Ampere架构,为其带来了打破性的特征。 借助第三代Tensor Core焦点,通过全新TF32,NVIDIA A100 80GB GPU将上一代Volta架构的AI吞吐量进步多达20倍。通过FP64,将HPC机能进步多达2.5倍。通过INT8,将AI推理机能进步多达20倍,而且支持BF16数据名目。 依附其多实例GPU(MIG)技能,NVIDIA A100 80GB GPU可支解为多达7个GPU实例,每个实例具有10GB内存。该技能是一种安详的硬件断绝要领,在处理赏罚种种较小的事变负载时,可实现GPU最佳操作率。对付如RNN-T等自动说话辨认模子的AI推理,单个A100 80GB MIG实例可处理赏罚更大局限的批量数据,将出产中的推理吞吐量进步1.25倍。 在计较机能晋升的同时,NVIDIA A100 80GB GPU基于A100 40GB的多样化成果,回收HBM2e技能,可将A100 40GB GPU的高带宽内存增进一倍至80GB,提供每秒高出2TB的内存带宽。这使得数据可以快速传输到环球最快的数据中心GPU A100上,使研究职员可以或许更快地加快其应用,处理赏罚最大局限的模子和数据集。 同时,依托第三代NVLink和NVSwitch互连技能,NVIDIA A100 80GB GPU之间的带宽增进至原本的两倍,将数据麋集型事变负载的GPU数据传输速率进步至每秒600gigabytes。 今朝,NVIDIA A100 80GB GPU已经支持NVIDIA HGX AI超等计较平台。NVIDIA HGX AI超等计较平台将NVIDIA GPU、NVIDIA NVLink 、NVIDIA InfiniBand收集以及全面优化的NVIDIA AI和HPC软件仓库的所有成果整合在一路,以提供最良好的应用机能。 因为GPU内存比上一代晋升一倍,HGX处事器中搭载的A100 80GB还可实习具有更多参数的最大模子,如GPT-2,可以或许为研究职员和工程师们提供空前的速率和机能,助力实现新一轮AI和科学技能打破。 同时,源讯、戴尔科技、富士通、技嘉科技、慧与、海潮、遐想、云达科技、超微估量将于2021年上半年,提供基于HGX A100集成底板的体系,该集成底板搭载4-8个A100 80GB GPU。 一体式AI数据中心:NVIDIA DGX Station A100 NVIDIA环球独一的千兆级事变组处事器NVIDIA DGX Station A100正式宣布。作为开创性的第二代人工智能体系,DGX Station A100加快满意位于环球各地的公司办公室、研究机构、尝试室或家庭办公室中办公的团队对付呆板进修和数据科学事变负载的凶猛需求。 DGX Station A100的AI机能可达2.5petaflops,是独逐一台配备四个通过NVIDIA NVLink完全互连的全新NVIDIA A100 Tensor Core GPU的事变组处事器,可提供高达320GB的GPU内存,可以或许助力企业级数据科学和AI规模以最速率取得打破。 DGX Station A100配备四组80GB或40GB NVIDIA A100 Tensor Core GPU,比上一代DGX Station提速4倍以上,对付诸如BERT Large实习与推理等伟大的对话式AI模子,其机能进步近3倍,让数据科学和AI研究团队可以或许团结自身事变负载和预算来选择体系。 DGX A100体系将配备全新NVIDIA A100 80GB GPU使每个DGX A100体系的GPU内存容量增进一倍(最高可达640GB),从而确保AI团队可以或许行使更大局限的数据集和模子来进步精确性,承载更大局限的数据中苦衷情负载。 作为处事器级的体系,DGX Station A100无需配备数据中心级电源或散热体系,却具有与NVIDIA DGX A100数据中心体系沟通的长途打点成果。当数据科学家和研究职员在家中或尝试室办公时,体系打点员可轻松地通过长途毗连,执行任何打点使命。 DGX Station A100也是独一支持NVIDIA多实例GPU(MIG)技能的事变组处事器。借助MIG,单一DGX Station A100最多可提供28个独立GPU实例以运行并利用命,并可在不影响体系机能的条件下支持多用户。 全新DGX A100 640GB体系也将集成到企业版NVIDIA DGX SuperPOD办理方案,使机构能基于以20 个DGX A100体系为单元的一站式AI超等计较机,实现大局限AI模子的构建、实习和陈设。 据悉,配备A100 80GB GPU的NVIDIA DGX SuperPOD体系将率先安装于英国的Cambridge-1超等计较机,以加快推进医疗****规模研究,以及佛罗里达大学的全新HiPerGator AI超等计较机,该超等计较机将赋力这一“阳光之州”开展AI赋能的科学发明。 今朝,DGX Station的用户已经遍布教诲、金融处事、当局、医疗康健、和零售等行业,个中包罗宝马团体、德国人工智能研究中心、NTT Docomo、平静洋西北国度尝试室(PNNL)等。 NVIDIA DGX Station A100和NVIDIA DGX A100 640GB体系将于本季度通过环球NVIDIA相助搭档收集经销商供货。NVIDIA DGX A100 320GB用户可选择进级。 最快收集机能:NVIDIA Mellanox 400G InfiniBand 凡是AI应用必要更快,更智能,更具扩展性的收集,而Mellanox InfiniBand一向是AI超等计较的最佳收集办理方案,本日NVIDIA正式推出了面向AI超等计较的业界最强盛的收集办理方案——下一代NVIDIA Mellanox 400G InfiniBand,为AI开拓职员和科学研究职员提供了最快的收集互连机能。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |