原文:【論文閱讀】MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition

論文地址:https: aclanthology.org .acl long. .pdf 代碼地址:https: github.com CoderMusou MECT CNER Abstract 近年來,在中文命名實體識別 NER 中,詞語增強已成為一種非常流行的方法,它可以減少切分錯誤,增加中文詞語的語義和邊界信息。然而,這些方法在整合了詞匯信息之后,往往忽略了漢字結構的信息。漢字自古以來就是從 ...

2021-10-30 19:52 0 1414 推薦指數:

查看詳情

論文翻譯筆記:Multi-Grained Named Entity Recognition

摘要 本論文提出了一個新的框架,MGNER,該框架是為了解決多粒度命名實體識別,該任務是指一個句子中的多個實體不會發生重疊或者完全被嵌套的情況。不同於傳統的方法把NER視為序列標注任務並連續標注實體,MGNER在多粒度上檢測並識別實體:它能夠識別命名實體,而無需顯式地假定不重疊或完全嵌套的結構 ...

Mon Sep 07 06:03:00 CST 2020 0 593
TENER: Adapting Transformer Encoder for Named Entity Recognition

論文地址:https://arxiv.org/abs/1911.04474 Abstract BiLSTMs結構在NLP的任務中廣泛應用,最近,全連接模型Transformer大火,它的 self-attention 機制和強大的並行計算能力使其在眾多模型中脫穎而出,但是,原始版本 ...

Tue Apr 28 05:35:00 CST 2020 0 1870
論文翻譯】Neural Architectures for Named Entity Recognition

Abstract   處於領先水平的命名實體識別系統嚴重依賴於人工設計的特征與特定領域的知識,從而更高效地學習小型、帶標記的語料庫 。在這篇論文里我們介紹了兩種神經結構——一種結構是基於雙向LSTM與條件隨機場,另一種結構是通過一種基於轉換、Shift-Reduce解析的算法構造並標記 ...

Wed Jun 20 20:44:00 CST 2018 0 1350
[論文閱讀] Residual Attention(Multi-Label Recognition)

Residual Attention 文章: Residual Attention: A Simple but Effective Method for Multi-Label Recognition, ICCV2021 下面說一下我對這篇文章的淺陋之見, 如有錯誤, 請多包涵指正. 文章 ...

Mon Aug 16 01:50:00 CST 2021 0 296
論文閱讀 | Compressing Large-Scale Transformer-Based Models: A Case Study on BERT

Transefomer-based 的預處理模型往往很消耗資源,對運算性能要求極高,還有嚴格的延遲需求。 潛在補救方法:模型壓縮。 這篇文章主要講如何壓縮Transformers,重點關注BERT。使用不同的方法對attention層 全連接層等不同部分的壓縮會有不同的效果,來看看 ...

Fri Mar 13 02:27:00 CST 2020 0 621
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM