英伟达打破实时对话AI的训练和推理用时记录
(原问题:Nvidia breaks records in training and inference for real-time conversational AI) 网易科技讯8月14日动静,据海外媒体报道,Nvidia用于开拓和运行可领略和相应哀求的对话式AI的GPU强化平台,已经告竣了一些重要的里程碑,并冲破了一些记录。 这对任何基于其技能举办开拓的人来说意义重大——傍边包罗大巨微小的公司,由于英伟达将许多用于实现这些前进的代码开源。那些代码用PyTorch编写,易于运行。 英伟达本日公布的最大成就包罗:BERT实习用时冲破记录,进入1小时关隘。BERT是天下上最先辈的人工智能说话模子之一,也被普及以为是天然说话处理赏罚(NLP)标杆的先辈模子。Nvidia的AI平台仅仅必要53分钟就可以或许完成模子实习,颠末实习的模子在短短2毫秒多一点的时刻里(10毫秒在业内被以为是高程度线)就可以或许乐成地做出推理(即操作通过实习进修到的手段得出功效)——又一个记录。 英伟达的这些打破不只仅是吹捧的成本——这些前进可为任何行使NLP对话式人工智能和GPU硬件的人提供切实的甜头。Nvidia在它的个中一个SuperPOD体系上冲破了实习时刻记录,该SuperPOD体系由运行1472个V100 GPU的92个Nvidia DGX-2H体系构成;在运行Nvidia TensorRT的Nvidia T4 GPU上完成推理进程。Nvidia TensorRT在机能上超出高度优化的CPU很多个量级。不外,该公司将果真BERT实习代码和颠末TensorRT优化的BERT样本,让全部人都可以通过GitHub操作。 除了这些里程碑以外,英伟达的研究部分还成立并实习了有史以来最大的一个基于“Transformer”的说话模子。这也是BERT的技能基本。该定制模子包括的参数多达83亿个,局限是当前最大的焦点BERT模子BERT-Large的24倍。英伟达将这个模子定名为“Megatron”,它也对外提供了用于实习这个模子的PyTorch代码,因而其他人可以或许自行实习出相同的基于“Transformer”的大型说话模子。(乐邦)
(编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |