加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

GitHub万星NLP资源大升级:Pytorch和TF深度互操作,32个最新模型

发布时间:2019-09-28 03:06:39 所属栏目:移动互联 来源:乾明 鱼羊
导读:本文经AI新媒体量子位(公家号ID:QbitAI)授权转载,转载请接洽出处。 GitHub上最火的NLP项目,标星13000+,此刻迎来重大更新。 方才, 抱抱脸(Hugging Face)团队,放出了transformers 2.0版本。 一方面,实现了TensorFlow 2.0和 PyTorch 之间的深度互操

本文经AI新媒体量子位(公家号ID:QbitAI)授权转载,转载请接洽出处。

GitHub上最火的NLP项目,标星13000+,此刻迎来重大更新。

方才, 抱抱脸(Hugging Face)团队,放出了transformers 2.0版本。

GitHub万星NLP资源大进级:Pytorch和TF深度互操纵,32个最新模子

一方面,实现了TensorFlow 2.0和 PyTorch 之间的深度互操纵性。

你可以在TPU上实习模子,然后再Pytorch上测试,最后通过TensorFlow陈设。

另一方面,也集成了高出32个颠末100多种说话预实习的模子。最新的NLP架构,好比BERT、GPT-2、XLNet、RoBERTa、DistilBert、XLM等等通通在内。

更新放出之后,业内人士纷纷奉上各类叹息:

This is so cool! Good job!、That’s awesome、Hot damn this is amazing!、Jesus christ.

transformers 2.0,最全的NLP库

更直接一点说,transformers 2.0项目,就是一个NLP规模的SOTA的荟萃。

SQuAD排行榜上的选手们通通收编在内,一共有8大架构可供挪用:

GitHub万星NLP资源大进级:Pytorch和TF深度互操纵,32个最新模子

BERT、XLNet这几位重量级选手自不必说。

最奇怪的RoBERTa、GPT-2 774M版本都已更新在列。

尚有两个XLM架构,它们在XNLI跨说话分类使命中拥有比多说话BERT更优越的示意。

另外,尚有抱抱脸自家的DistilBERT,这是一个更小、更快、更自制、更轻量级的BERT蒸馏版。

七月尾刚把BERT拉回GLUE榜首的RoBERTa也险些是在第一时刻被整合到了pytorch-transformers库中。

全部这些架构,都已经在SQuAD数据集长举办了测试,均与原始实现的机能相匹配。

在这些架构之下,一共有高出32个颠末100多种说话预实习的模子。

行使起来也很是利便,只需一个API,就能挪用。

在线Demo,就地试用

NLP界的超强模子们到底有什么高着?抱抱脸也在官网上搭建了Write With Transformer,真·AI帮你在线写论文,在线编故事。

GitHub万星NLP资源大进级:Pytorch和TF深度互操纵,32个最新模子

不外,在线处事的模子只有GPT,GPT-2和XLNet。

想要完备行使整个Transformer库,安装也并不坚苦。

官方提供的repo已经在Python 2.7和3.5+、PyTorch 1.0.0+、TensorFlow 2.0.0-rc1中举办了测试。

在安装了TensorFlow 2.0和/或PyTorch之后,可以通过pip安装:

  1. pip install transformers 

然后把库克隆到当地:

  1. pip install [—editable] . 

样本测试则可以在pytest上运行:

  1. python -m pytest -sv ./transformers/tests/ 
  2.  
  3. python -m pytest -sv ./examples/ 

乃至,你还可以在移动装备上运行这些模子,repo地点:

https://github.com/huggingface/swift-coreml-transformers

从pytorch-transformers到transformers

这一项目,一开始名为pytorch-pretrained-bert,在1.2版本时改名为pytorch-transformers,此刻变为transformers。

从名字的变迁中,也可以或许看出它的成果也越来越强盛。在2.0版本中,实现了TensorFlow 2.0和 PyTorch 之间的深度互操纵性,这也也许是在名字中去掉“pytorch-”的直接缘故起因。

在GitHub项目中,他们也就地演示了怎样用12行代码实习TensorFlow 2.0模子,然后将其放到PyTorch举办快速检测和测试:

GitHub万星NLP资源大进级:Pytorch和TF深度互操纵,32个最新模子

虽然,这一库尚有更多强盛的成果守候你掘客,假如你是NLP规模的从颐魅者可能研究者,万万不要错过。

项目链接:

https://github.com/huggingface/transformers

关于抱抱脸

固然看上去很萌,但Hugging Face可不是乐趣小集体,而是个正经的AI创业公司。

他们的方针是建树真正的社会人工智能,并在这一进程中不绝孝顺技能力气。在NLP规模,他们的论文登上过ICLR,NeurIPS ,AAAI等国际顶会。

GitHub万星NLP资源大进级:Pytorch和TF深度互操纵,32个最新模子

而他们在transformers这个广受接待的项目上支付的一连全力,正是其僵持的浮现,并且也已经赢得了普及的荣誉。

在看到transformers 2.0项目更新的时辰,就有网友评述称:

每次我听到 Huggingface,就仿佛看到“悟空”(龙珠)从实习营返来后的动作一样。每小我私人都对他们的前进感想敬畏和难以置信。

【编辑保举】

  1. 谷歌怎样实现10亿行代码的测试包围率?
  2. 30段极简Python代码:这些小能力你Get了么
  3. Github 上 10 个值得进修的 Springboot 开源项目
  4. TextMate免费开源的老牌代码编辑器
  5. Github 上很是适用的 Vue 开源库
【责任编辑:张燕妮 TEL:(010)68476606】
点赞 0

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读