加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 编程 > 正文

开启NLP新期间的BERT模子,是怎么一步步封神的?

发布时间:2018-12-14 13:29:39 所属栏目:编程 来源:视觉中国 文|脑极体 NLP领域的伸手党们,上个月简直像在过
导读:原问题:开启NLP新期间的BERT模子,是怎么一步步封神的? 图片来历:视觉中国 文|脑极体 NLP规模的伸手党们,上个月的确像在过年! 不只号称谷歌最强NLP模子的BERT如约开源了,并且最新版本还支持中文,可以用于中文定名实体识此外Tensorflow代码!最要害

BERT行使了超大的数据集(BooksCorpus 800M + English Wikipedia 2.5G单词)和超大的算力(对应于超大模子)来在相干的使命上做预实习。将来,是否有足够的实习语料来复现同样的结果,又是否足够的GPU(背后就是钱)来支撑跑BERT,将是智能语音技能企业拉开身位的要害。

总而言之,BERT在NLP界照旧个新闹事物,但已经有了封神的潜质。比此前的办理方案更优越,更有成长潜力。

不外,对数据局限和算力的要求,以及与自身营业的耦合,也在无形中晋升着智能语音的门槛和本钱。

从这个角度看,最终可以或许借助BERT拉开竞争区位的,要么是搜狗、阿里、百度这样以搜刮、电商为主业的大数据“富一代”,要么是依附强盛服从与营业创新实现“弯道超车”的新独角兽,接下来生怕可以引发不少新脑洞息争题思绪。

无论怎样,BERT的呈现,终于让专注“跑分”和“隔空叫板”的NLP规模,多了一些更风趣的想象力。

更多出色内容,存眷钛媒体微信号(ID:taimeiti),可能下载钛媒体App

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读