登录后绑定QQ、微信即可实现信息互通
NLP专栏已经发了相当数目的文章,从基础的机器学习到最新的预训练语言模型;从简单的文本分类到复杂的信息抽取、聊天机器人。今天我们做一个回顾和总结,聊聊我们从事的自然语言处理研究或者工作,究竟是怎么一回事,介绍一下自然语言处理的各大研..
文 | 漠兮 近日求职少年李文星蹊跷死亡,让BOSS直聘陷入舆论风暴之中,悲剧缘起一份本以为是上市公司敲门砖的Offer,经各类分析认为,这个当初在互联网招聘平台“BOSS直聘”上与李文星联系的北京科蓝公司,只不过是一家冒名招聘的“李鬼”公司。..
文|雷宇 《我,机器人》是美国著名科幻作家艾萨克·阿西莫夫一生中最重要的一部中短篇科幻小说集。小说集描绘了机器人的智能水平在经历了一步步发展之后,最终“挺立于人类与毁灭之间”。更重要的是,小说中不但有机器人,还有“机器人心理学家”..
欢迎来到《每周NLP论文推荐》。在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的。 知识图谱是NLP中非常重要的底层基础建筑。知识图谱之于自然语言处理,就像内功之于武侠世界中的..
本篇介绍目前NLP领域的“网红”特征抽取器Transformer。首先,作为引子,引入 Transformer是什么的问题;接着,详细介绍了Transformer的结构和其内部的机制;最后,再总结Transformer的本质和定义。 作者&编辑 | 小Dream哥 1 Transformer是什么?..
事物、概念之间的关系是人类知识中非常重要的一个部分,但是他们通常隐藏在海量的非结构文本中。为了从文本中抽取这些关系事实,从早期的模式匹配到近年的神经网络,大量的研究在多年前就已经展开。 然而,随着互联网的爆炸发展,人类的知识也随之..
本篇介绍目前NLP领域里影响力最大的预训练模型BERT。首先,大致介绍了BERT里有什么;接着,介绍了BERT的结构和其预训练的方式;最后,再总结BERT的表征的内容和分布。 作者&编辑 | 小Dream哥 1 BERT是什么?了解自然语言处理的同学,应该没有不知..
前面介绍过BERT,作为一种非常成功的预训练模型,取得了非常不错的成绩,那么,他还有改进的空间吗? 本文介绍BERT的改进版,XLnet。看看它用了什么方法,改进了BERT的哪些弱点。 作者&编辑 | 小Dream哥 1 为什么要有XLnet?要理解XLnet,我们先回..
目前在NLP领域,出彩的预训练模型的新工作,几乎都是基于BERT的改进,前面我们就介绍了XLNET。今天我来介绍一个更新的工作,相比于BERT,它更轻量,效果也要好。 作者&编辑 | 小Dream哥 1 预训练模型进展2018年底,BERT横空出世之后,预训练模型开..
信息抽取 (Information Extraction: IE)是把文本里包含的信息进行结构化处理,变成计算机能够处理的结构,实体抽取、关系抽取、事件抽取等都属于信息抽取的范畴。在NLP领域,信息抽取的应用场景十分的广泛,是一个非常重要的基础任务。 作者&编..
提出你的第一个问题
回答一个你擅长的问题
对内容进行点赞或者收藏
阅读声望与权限的规范
完善个人资料