微软为OpenAI打造大型超算,但用的谁家芯片?
本周微软公布,已经在Azure云中托管了OpenAI排名第五的AI超等计较机。2019年微软向OpenAI行业研究小组投资了10亿美元。这个AI超算体系包罗约莫10000个GPU和285000多个CPU焦点,将用于晋升处理赏罚超大型AI模子的手段,据OpenAI称,大型AI模子的局限每3.5个月就会翻一番。微软用于天然说话天生的Turing模子包括约170亿个参数,比客岁的最大模子增进了17倍。因此,这个超等计较机将大有效处。
稀疏的是,微软并没有定名这套计较机(这个在超算规模这是闻所未闻的),并且也没有透露任何用户必需相识的具系一切设置信息:用的哪个GPU的开拓仓库,谁家的CPU、以及每个插槽的焦点数和线程数、什么收集接口、每个节点(#CPU和#GPU)的设置。尽量没有讲话人证拭魅这些信息,但我以为我本身对个中一些重要身分有一些相识。 ![]() 微软在公布这一通告的博客文章中,铺开了这么一张没有实质内容的超等计较机图片。资料来历:微软 行使了谁家GPU?NVIDIA V100 起首,GPU必需是NVIDIA V100,由于a)NVIDIA方才宣布了A100,在此之前,他们很难交付10000个。 b)GPU不能是AMD Radeons,由于Radeons尚不支持OpenAI研究所需的生态体系。因此颠末这么说明筛选,得出的结论就是,GPU就是NVIDIA V100。以10000个为例,假设这对微软来说是一笔很是可观的买卖营业,每个GPU本钱仅为5000美元,那么会给NVIDIA带来约莫5000万美元的收入,并且大概上个季度就产生了。 行使了谁家的CPU?AMD EPYC Rome 说到CPU,计较一下就能知道是AMD EPYC Rome CPU。除非微软耗费巨资采购56核至强CPU,不然英特尔至强的焦点数尚不敷以提供支持。以285000个焦点为例,假设双插槽设置的AMD 64核CPU,那就相等于约莫2220个节点。每个节点设置4个GPU,可以毗连到约莫8800个GPU,因此至少必要10000个GPU。有动静灵通的匿绅士士证实了我的推理,称确实行使的是AMD EPYC。 互连方面,NVIDIA收购了Mellanox,在超等计较机规模处于率领职位,且倾向于InfiniBand,因此我以为应该回收的是InfiniBand。 结论 固然我相识到,微软和OpenAI但愿这次通告的重点放在通告自己已经他们正在举办的研究上,但这个做法有些过期了,与Satya Nadella建议的转变是不符合的。在开放的IT天下中,究竟信息是至关重要的,通告中应该包括有这些究竟。微软行使了相同漫画的图片,而不是吸引人的照片,让我们无法确定行使了哪个体系(揣摩是Open Compute HGX,可是…)。那好吧。我做了一些说明研究,得出的结论是AMD、NVIDIA和Mellanox胜出了,他们的领先技能和成就将被用于人工智能研究规模,这一点值得必定。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |