加入收藏 | 设为首页 | 会员中心 | 我要投稿 河北网 (https://www.hebeiwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

8种优越预实习模子大盘货,NLP应用so easy!

发布时间:2019-04-01 23:00:26 所属栏目:建站 来源:大数据文摘
导读:大数据文摘出品 编译:李雷、蔡婕 现在,天然说话处理赏罚(NLP)可谓各处着花,可以嗣魅正是我们相识它的好机缘。 NLP的快速增添首要得益于通过预实习模子实现转移进修的观念。在NLP中,转移进修本质上是指在一个数据集上实习模子,然后调解该模子以便在差异数据
副问题[/!--empirenews.page--]

8种优越预实习模子大盘货,NLP应用so easy!

大数据文摘出品

编译:李雷、蔡婕

现在,天然说话处理赏罚(NLP)可谓各处着花,可以嗣魅正是我们相识它的好机缘。

NLP的快速增添首要得益于通过预实习模子实现转移进修的观念。在NLP中,转移进修本质上是指在一个数据集上实习模子,然后调解该模子以便在差异数据集上实现NLP的成果。

这一打破使NLP应用变得云云简朴,尤其是那些没偶然刻或资源从新开始构建NLP模子的人。可能,对付想要进修可能从其他规模过渡到NLP的新手来说,这的确就是美满。

一、为什么要行使预实习模子?

模子的作者已经计划出了基准模子,这样我们就可以在本身的NLP数据集上行使该预实习模子,而无需从新开始构建模子来办理相同的题目

尽量必要举办一些微调,但这为我们节减了大量的时刻和计较资源

在本文中展示了那些助你开始NLP之旅的顶级预实习模子,以及该规模的最新研究成就。要查察关于计较机视觉中的顶级预实习模子的文章,请参阅:

https://www.analyticsvidhya.com/blog/2018/07/top-10-pretrained-models-get-started-deep-learning-part-1-computer-vision/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article

二、本文涵盖的NLP预实习模子

我按照应用场景将预实习模子分为三类:

多用途NLP模子

  • ULMFiT
  • Transformer
  • 谷歌的BERT
  • Transformer-XL
  • OpenAI的GPT-2

词嵌入NLP模子

  • ELMo
  • Flair

其他预实习模子

  • StanfordNLP

多用途NLP模子

多用途模子在NLP规模里一向为人们所存眷。这些模子为提供了很多令人感乐趣的NLP应用 - 呆板翻译、问答体系、谈天呆板人、情绪说明等。这些多用途NLP模子的焦点是说话建模的理念。

简朴来说,说话模子的目标是猜测语句序列中的下一个单词或字符,在我们相识各模子时就会大白这一点。

假如你是NLP喜爱者,那么必然会喜痪?在这部门,让我们深入研究5个最先辈的多用途NLP模子框架。这里我提供了每种模子的研究论文和预实习模子的链接,来试探一下吧!

1. ULMFiT模子

ULMFiT由fast.ai(深度进修网站)的Jeremy Howard和DeepMind(一家人工智能企业)的Sebastian Ruder提出并计划。可以这么说,ULMFiT开启了转移进修的高潮。

正如我们在本文中所述,ULMFiT行使新奇的NLP技能取得了令人瞩目标成就。该要领对预实习说话模子举办微调,将其在WikiText-103数据集(维基百科的恒久依靠说话建模数据集Wikitext之一)上实习,从而获得新数据集,通过这种方法使其不会健忘之前学过的内容。

ULMFiT比很多先辈的文天职类模子还要好。我喜欢ULMFiT是由于它只必要很少的数据就可以来发生令人印象深刻的功效,使我们更轻易领略并在呆板上实现它!

大概你不知道ULMFiT着实是Universal Language Model Fine-Tuning(通用说话模子微调)的简称。“通用”一词在这里很是贴切 - 该框架险些可以应用于任何NLP使命。

想知道有关ULMFiT的更多信息,请参阅以下文章和论文:

  • 行使ULMFiT模子和Python 的fastai库举办文天职类(NLP)教程:https://www.analyticsvidhya.com/blog/2018/11/tutorial-text-classification-ulmfit-fastai-library/?utm_source=blog&utm_medium=top-pretrained-models-nlp-article
  • ULMFiT的预实习模子论文:https://www.paperswithcode.com/paper/universal-language-model-fine-tuning-for-text
  • 其他研究论文:https://arxiv.org/abs/1801.06146

2. Transformer模子

Transformer架构是NLP近期最焦点的成长,2017年由谷歌提出。其时,用于说话处理赏罚使命(如呆板翻译和问答体系)的是轮回神经收集(RNN)。

Transformer架构的机能比RNN和CNN(卷积神经收集)要好,实习模子所需的计较资源也更少,这对付每个行使NLP的人来说都是双赢。看看下面的较量:

各模子的英德翻译质量

按照Google的说法,Transformer模子“应用了一种自留意力机制,可直接模仿句子中全部单词之间的相关,而无需分析其各自的位置怎样”。它行使牢靠长度上下文(也就是前面的单词)来实现。太伟大了?没事,我们举一例子简朴声名。

有句话“She found the shells on the bank of the river.”此时模子必要大白,这里的“bank”是指岸边,而不是金融机构(银行)。Transformer模子只需一步就能领略这一点。我但愿你能阅读下面链接的完备论文,以相识其事变道理。它必定会让你大吃一惊。

下面的动画很好地声名白Transformer如那里理赏罚呆板翻译使命:

https://mp.weixin.qq.com/s?__biz=MjM5MTQzNzU2NA==&mid=2651669109&idx=2&sn=29b4e45291eac659af2967a1e246aa03&chksm=bd4c65e68a3becf0fdbb58b02a4c517c4dc62a6715763c9997b5139e4f6f96baab3ea850b96a&mpshare=1&scene=23&srcid=0401s7dijTRyCBQwv75Mh3I3#rd

谷歌客岁宣布了一款名为Universal Transformer的改造版Transformer模子。它尚有一个更新,更直观的名字,叫Transformer-XL,,我们将在后头先容。

想进修和阅读更多有关Transformer的信息,请会见:

  • 谷歌官方博文:https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html
  • Transformer预实习模子论文《Attention Is All You Need》:https://www.paperswithcode.com/paper/attention-is-all-you-need
  • 其他研究论文:https://arxiv.org/abs/1706.03762

3. BERT模子(谷歌)

(编辑:河北网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读