原文:【论文阅读】MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition

论文地址:https: aclanthology.org .acl long. .pdf 代码地址:https: github.com CoderMusou MECT CNER Abstract 近年来,在中文命名实体识别 NER 中,词语增强已成为一种非常流行的方法,它可以减少切分错误,增加中文词语的语义和边界信息。然而,这些方法在整合了词汇信息之后,往往忽略了汉字结构的信息。汉字自古以来就是从 ...

2021-10-30 19:52 0 1414 推荐指数:

查看详情

论文翻译笔记:Multi-Grained Named Entity Recognition

摘要 本论文提出了一个新的框架,MGNER,该框架是为了解决多粒度命名实体识别,该任务是指一个句子中的多个实体不会发生重叠或者完全被嵌套的情况。不同于传统的方法把NER视为序列标注任务并连续标注实体,MGNER在多粒度上检测并识别实体:它能够识别命名实体,而无需显式地假定不重叠或完全嵌套的结构 ...

Mon Sep 07 06:03:00 CST 2020 0 593
TENER: Adapting Transformer Encoder for Named Entity Recognition

论文地址:https://arxiv.org/abs/1911.04474 Abstract BiLSTMs结构在NLP的任务中广泛应用,最近,全连接模型Transformer大火,它的 self-attention 机制和强大的并行计算能力使其在众多模型中脱颖而出,但是,原始版本 ...

Tue Apr 28 05:35:00 CST 2020 0 1870
论文翻译】Neural Architectures for Named Entity Recognition

Abstract   处于领先水平的命名实体识别系统严重依赖于人工设计的特征与特定领域的知识,从而更高效地学习小型、带标记的语料库 。在这篇论文里我们介绍了两种神经结构——一种结构是基于双向LSTM与条件随机场,另一种结构是通过一种基于转换、Shift-Reduce解析的算法构造并标记 ...

Wed Jun 20 20:44:00 CST 2018 0 1350
[论文阅读] Residual Attention(Multi-Label Recognition)

Residual Attention 文章: Residual Attention: A Simple but Effective Method for Multi-Label Recognition, ICCV2021 下面说一下我对这篇文章的浅陋之见, 如有错误, 请多包涵指正. 文章 ...

Mon Aug 16 01:50:00 CST 2021 0 296
论文阅读 | Compressing Large-Scale Transformer-Based Models: A Case Study on BERT

Transefomer-based 的预处理模型往往很消耗资源,对运算性能要求极高,还有严格的延迟需求。 潜在补救方法:模型压缩。 这篇文章主要讲如何压缩Transformers,重点关注BERT。使用不同的方法对attention层 全连接层等不同部分的压缩会有不同的效果,来看看 ...

Fri Mar 13 02:27:00 CST 2020 0 621
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM