登录后绑定QQ、微信即可实现信息互通
本篇介绍目前NLP领域里影响力最大的预训练模型BERT。首先,大致介绍了BERT里有什么;接着,介绍了BERT的结构和其预训练的方式;最后,再总结BERT的表征的内容和分布。 作者&编辑 | 小Dream哥 1 BERT是什么?了解自然语言处理的同学,应该没有不知..
前面介绍过BERT,作为一种非常成功的预训练模型,取得了非常不错的成绩,那么,他还有改进的空间吗? 本文介绍BERT的改进版,XLnet。看看它用了什么方法,改进了BERT的哪些弱点。 作者&编辑 | 小Dream哥 1 为什么要有XLnet?要理解XLnet,我们先回..
本篇介绍在NLP中各项任务及模型中引入相当广泛的Attention机制。在Transformer中,最重要的特点也是Attention。首先详细介绍其由来,然后具体介绍了其编解码结构的引入和原理,最后总结了Attention机制的本质。 作者&编辑 | 小Dream哥 1 注意力机..
上周我们讲到,在进行NNLM训练时,能够得到副产品,词向量。本文介绍一种专门用于词向量制备的方法:word2vec,利用它能够高效的训练出词向量。 作者&编辑 | 小Dream哥 1 word2vec是什么?在阐述word2vec的原理之前,笔者先大致介绍一下,word2vec..
正如我在<2019年总结>里说提到的, 我将开始一系列自然语言处理(NLP)的笔记. 很多人都说, AI并不难啊, 调现有库和云的API就可以啦. 然而实际上并不是这样的.首先, AI这个领域十分十分大, 而且从1950年图灵提出图灵测试, 1956年达特茅斯会议开始, A..
最近在学NLP,给自己扫扫盲,看看NLP具体干什么,本文先学学概念,后面再深入。(不是很深入的文章,高手误入。) 自然语言处理(简称NLP),是研究计算机处理人类语言的一门技术,是人工智能(AI)的一个子领域,包括: 1.句法语义分析:对于给定..
前言 近年来,自然语言处理都比较火热,掀起了国内研究NLP的一股热潮。最近我也一直在学习自然语言处理,就一些知识做一个总结,方便自己以后观看,也希望可以给他们提供一些借鉴。 现在的机器翻译已经很成熟了,例如我们经常用的百度翻译或..
Mutual Information Maximization https://github.com/yanzhangnlp/IS-BERT
美团的各个业务有着丰富的NLP场景,而这些场景中模型的构建需要很多的标注资源,成本很高。小样本学习致力于在数据资源稀少的情况下训练出比较好的模型。本文从主动学习、数据增强、半监督学习、领域迁移、集成学习&自训练几个方向介绍了现有的一些..
众所周知,参加学术会议是进入学术圈、走进学术前沿的重要方式。在学术会议上,不仅可以集中听取最新的成果报告,还有讲习班、工作坊、社交活动等形式,了解那些不会写到论文中的八卦与动态,结识学术大佬和朋友,走向学术人生巅峰。 本篇介绍国内..
提出你的第一个问题
回答一个你擅长的问题
对内容进行点赞或者收藏
阅读声望与权限的规范
完善个人资料