2000字范文,分享全网优秀范文,学习好帮手!
2000字范文 > 整合目前最先进的技术理论和实践经验 帮助读者系统地掌握预训练语言模型(Pre-traine

整合目前最先进的技术理论和实践经验 帮助读者系统地掌握预训练语言模型(Pre-traine

时间:2022-03-11 11:02:04

相关推荐

整合目前最先进的技术理论和实践经验 帮助读者系统地掌握预训练语言模型(Pre-traine

作者:禅与计算机程序设计艺术

1.简介

是深度学习与自然语言处理领域的元年,也是一个重大的里程碑事件。NLP领域利用了深度学习的最新技术,通过训练模型预测语言、文本等高维数据,取得了极其惊人的成就。近几年,无论是从语言模型到文本分类、问答系统,或是零样本学习(Zero-shot learning)、下游任务指导下的迁移学习,在NLP技术发展上都取得了长足进步。本文试图通过整合目前最先进的技术理论和实践经验,帮助读者系统地掌握预训练语言模型(Pre-trained language models,PLMs)的基本知识、应用、发展方向及未来趋势。

2.预训练语言模型基本概念及其特点

1.预训练语言模型(Pre-trained language models,PLM):

预训练语言模型是在大规模无监督的数据集上进行的自回归生成模型,它的输入包括原始的文本序列,输出则是文本序列中每个词的上下文及连续词(word piece)分布情况。

2.自回归生成模型(Autoregressive generative model):

自回归生成模型即生成文本的过程可以看作是一条马尔科夫链,即根据当前状态(状态由历史信息决定),生成下一个字符的概率取决于当前状态。

3.上下文相关性(Contextuality):

上下文相关性意味着词语与词语之间存在联系,并且这个联系需要考虑到全局的上下文信息。如“这家餐馆很好吃”,“它不错”在语义上高度相关,但单独看“它不错”可能并不能充分表达出用户的感受。

4.词

整合目前最先进的技术理论和实践经验 帮助读者系统地掌握预训练语言模型(Pre-trained language models PLMs)的基本知识 应用 发展方向及未来趋势

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。