什么是pyltp:
pyltp 是LTP的 Python 封裝,提供了分詞,詞性標注,命名實體識別,依存句法分析,語義角色標注的功能。
安裝 pyltp
測試環境:系統win10 64位, python3.6.5
官方安裝是直接使用pip install pyltp命令安裝,但是經過多次反復實踐,到處是坑,最后放棄了
輪子文件安裝:1.下載pyltp-0.2.1-cp36-cp36m-win_amd64.whl文件,百度雲,提取碼:1gki
2.切換到下載文件的目錄,執行 pip install pyltp-0.2.1-cp36-cp36m-win_amd64.whl
使用 pyltp
使用前請先下載完整模型,百度雲,提取碼:7qk2,當前模型版本 - 3.4.0
請注意編碼:
pyltp 的所有輸入的分析文本和輸出的結果的編碼均為 UTF-8。
如果您以非 UTF-8 編碼的文本輸入進行分析,結果可能為空。請注意源代碼文件的默認編碼。
由於 Windows 終端采用 GBK 編碼顯示,直接輸出 pyltp 的分析結果會在終端顯示為亂碼。您可以將標准輸出重定向到文件,以 UTF8 方式查看文件,就可以解決顯示亂碼的問題。
分句:
使用 pyltp 進行分句示例如下:
'''
使用pyltp進行分句
'''
from pyltp import SentenceSplitter
sents = SentenceSplitter.split('元芳你怎么看?我就趴在窗口上看唄!元芳你怎么這樣子了?我哪樣子了?')
# print(sents)
# print('\n'.join(sents))
sents = '|'.join(sents)
print(sents)
運行結果如下:
元芳你怎么看?|我就趴在窗口上看唄!|元芳你怎么這樣子了?|我哪樣子了?
分詞:
使用 pyltp 進行分詞示例如下:
"""
使用pyltp進行分詞
"""
import os
from pyltp import Segmentor
LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分詞模型路徑, 模型名稱為'cws.model'
segmentor = Segmentor() # 初始化實例
segmentor.load(cws_model_path) # 加載模型
words = segmentor.segment('元芳你怎么看') # 分詞
print(type(words))
print(type('|'.join(words)))
print('|'.join(words))
segmentor.release() # 釋放模型
運行結果如下:
<class 'pyltp.VectorOfString'> <class 'str'> 元芳|你|怎么|看
words = segmentor.segment('元芳你怎么看') 的返回值類型是native的VectorOfString類型,可以使用list轉換成Python的列表類型
使用分詞外部詞典:
pyltp 分詞支持用戶使用自定義詞典。分詞外部詞典本身是一個文本文件(plain text),每行指定一個詞,編碼同樣須為 UTF-8,樣例如下所示
苯並芘
亞硝酸鹽
示例如下:
'''
使用分詞外部詞典
'''
import os
from pyltp import Segmentor
LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分詞模型路徑, 模型名稱為'cws.model'
segmentor = Segmentor()
segmentor.load_with_lexicon(cws_model_path, 'plain.txt') # 加載模型,第二個參數是外部詞典文件路徑
words = segmentor.segment('亞硝酸鹽是一種化學物質')
print('|'.join(words))
segmentor.release()
運行結果:
[INFO] 2019-05-10 15:18:05 loaded 2 lexicon entries 亞硝酸鹽|是|一|種|化學|物質
詞性標注:
使用 pyltp 進行詞性標注
'''
使用 pyltp 進行詞性標注
'''
import os
from pyltp import Postagger
LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑
pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model') # 分詞模型路徑, 模型名稱為'pos.model'
postagger = Postagger() # 初始化實例
postagger.load(pos_model_path) # 加載模型
words = ['元芳', '你', '怎么', '看'] # words是分詞模塊的返回值,也支持Python原生list,此處使用list
postags = postagger.postag(words) # 詞性標注
print('|'.join(postags))
postagger.release() # 釋放模型
運行結果:
nh|r|r|v
LTP 使用 863 詞性標注集,詳細請參考 詞性標准集。如下圖所示

命名實體識別
使用 pyltp 進行命名實體識別示例如下
''' 命名實體識別 ''' import os from pyltp import NamedEntityRecognizer LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑 ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model') # 分詞模型路徑, 模型名稱為'c.model' recognizer = NamedEntityRecognizer() # 初始化實例 recognizer.load(ner_model_path) # 加載模型 words = ['元芳', '你', '怎么', '看'] # 分詞模塊的返回值 postags = ['nh', 'r', 'r', 'v'] # 詞性標注的返回值 netags = recognizer.recognize(words, postags) # 命名實體識別 print(netags) print(list(netags)) recognizer.release() # 釋放模型
其中,words 和 postags 分別為分詞和詞性標注的結果。同樣支持Python原生的list類型。
運行結果
<pyltp.VectorOfString object at 0x000002B3A798DBD0> ['S-Nh', 'O', 'O', 'O']
LTP 采用 BIESO 標注體系。B 表示實體開始詞,I表示實體中間詞,E表示實體結束詞,S表示單獨成實體,O表示不構成命名實體。
LTP 提供的命名實體類型為:人名(Nh)、地名(Ns)、機構名(Ni)。
B、I、E、S位置標簽和實體類型標簽之間用一個橫線 - 相連;O標簽后沒有類型標簽。
詳細標注請參考 命名實體識別標注集。
NE識別模塊的標注結果采用O-S-B-I-E標注形式,其含義為
| 標記 | 含義 |
|---|---|
| O | 這個詞不是NE |
| S | 這個詞單獨構成一個NE |
| B | 這個詞為一個NE的開始 |
| I | 這個詞為一個NE的中間 |
| E | 這個詞位一個NE的結尾 |
LTP中的NE 模塊識別三種NE,分別如下:
| 標記 | 含義 |
|---|---|
| Nh | 人名 |
| Ni | 機構名 |
| Ns | 地名 |
依存句法分析
使用 pyltp 進行依存句法分析示例如下
"""
依存句法分析
"""
import os
from pyltp import Parser
LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑
par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model') # 分詞模型路徑, 模型名稱為'parser.model'
parser = Parser() # 初始化實例
parser.load(par_model_path) # 加載模型
words = ['元芳', '你', '怎么', '看']
postags = ['nh', 'r', 'r', 'v']
arcs = parser.parse(words, postags) # 句法分析
print('\t'.join('%d: %s' %(arc.head, arc.relation) for arc in arcs))
parser.release() # 釋放模型
其中,words 和 postags 分別為分詞和詞性標注的結果。同樣支持Python原生的list類型。
運行結果
4: SBV 4: SBV 4: ADV 0: HED
arc.head 表示依存弧的父節點詞的索引。ROOT節點的索引是0,第一個詞開始的索引依次為1、2、3…
arc.relation 表示依存弧的關系。
arc.head 表示依存弧的父節點詞的索引,arc.relation 表示依存弧的關系。
標注集請參考依存句法關系
| 關系類型 | Tag | Description | Example |
|---|---|---|---|
| 主謂關系 | SBV | subject-verb | 我送她一束花 (我 <– 送) |
| 動賓關系 | VOB | 直接賓語,verb-object | 我送她一束花 (送 –> 花) |
| 間賓關系 | IOB | 間接賓語,indirect-object | 我送她一束花 (送 –> 她) |
| 前置賓語 | FOB | 前置賓語,fronting-object | 他什么書都讀 (書 <– 讀) |
| 兼語 | DBL | double | 他請我吃飯 (請 –> 我) |
| 定中關系 | ATT | attribute | 紅蘋果 (紅 <– 蘋果) |
| 狀中結構 | ADV | adverbial | 非常美麗 (非常 <– 美麗) |
| 動補結構 | CMP | complement | 做完了作業 (做 –> 完) |
| 並列關系 | COO | coordinate | 大山和大海 (大山 –> 大海) |
| 介賓關系 | POB | preposition-object | 在貿易區內 (在 –> 內) |
| 左附加關系 | LAD | left adjunct | 大山和大海 (和 <– 大海) |
| 右附加關系 | RAD | right adjunct | 孩子們 (孩子 –> 們) |
| 獨立結構 | IS | independent structure | 兩個單句在結構上彼此獨立 |
| 核心關系 | HED | head | 指整個句子的核心 |
語義角色標注
使用 pyltp 進行語義角色標注示例如下
''' 語義角色標注 ''' import os from pyltp import SementicRoleLabeller from demo6 import parser LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑 srl_model_path = os.path.join(LTP_DATA_DIR, 'pisrl_win.model') # 分詞模型路徑, 模型名稱為'pisrl_win.model' labeller = SementicRoleLabeller() # 初始化實例 labeller.load(srl_model_path) # 加載模型 words = ['元芳', '你', '怎么', '看'] postags = ['nh', 'r', 'r', 'v'] arcs = parser() print(arcs)
特別注意,windows系統此處用的模型是pirl_win.model
運行結果
[dynet] random seed: 2222491344 [dynet] allocating memory: 2000MB [dynet] memory allocation done. 4: SBV 4: SBV 4: ADV 0: HED <pyltp.VectorOfParseResult object at 0x0000026B5902DC30> 3 A0:(1,1)ADV:(2,2)
第一個詞開始的索引依次為0、1、2…
返回結果 roles 是關於多個謂詞的語義角色分析的結果。由於一句話中可能不含有語義角色,所以結果可能為空。
role.index 代表謂詞的索引, role.arguments 代表關於該謂詞的若干語義角色。
arg.name 表示語義角色類型,arg.range.start 表示該語義角色起始詞位置的索引,arg.range.end 表示該語義角色結束詞位置的索引。
例如上面的例子,由於結果輸出一行,所以“元芳你怎么看”有一組語義角色。 其謂詞索引為3,即“看”。這個謂詞有三個語義角色,范圍分別是(0,0)即“元芳”,(1,1)即“你”,(2,2)即“怎么”,類型分別是A0、A0、ADV。
arg.name 表示語義角色關系,arg.range.start 表示起始詞位置,arg.range.end 表示結束位置。
標注集請參考 語義角色關系。
| 語義角色類型 | 說明 |
|---|---|
| ADV | adverbial, default tag ( 附加的,默認標記 ) |
| BNE | beneficiary ( 受益人 ) |
| CND | condition ( 條件 ) |
| DIR | direction ( 方向 ) |
| DGR | degree ( 程度 ) |
| EXT | extent ( 擴展 ) |
| FRQ | frequency ( 頻率 ) |
| LOC | locative ( 地點 ) |
| MNR | manner ( 方式 ) |
| PRP | purpose or reason ( 目的或原因 ) |
| TMP | temporal ( 時間 ) |
| TPC | topic ( 主題 ) |
| CRD | coordinated arguments ( 並列參數 ) |
| PRD | predicate ( 謂語動詞 ) |
| PSR | possessor ( 持有者 ) |
| PSE | possessee ( 被持有 ) |
完整示例
import os,sys
from pyltp import SentenceSplitter,Segmentor,Postagger,Parser,NamedEntityRecognizer,SementicRoleLabeller
LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0' # LTP模型目錄路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model') # 分詞模型路徑, 模型名稱為'cws.model'
paragraph = '中國進出口銀行與中國銀行加強合作。中國進出口銀行與中國銀行加強合作!'
sentence = SentenceSplitter.split(paragraph)[0] # 分句並取第一句
# 分詞
segmentor = Segmentor() # 初始化
segmentor.load(os.path.join(LTP_DATA_DIR, 'cws.model')) # 加載模型
words = segmentor.segment(sentence) # 分詞
print(list(words))
print('|'.join(words))
# 詞性標注
postagger = Postagger() # 初始化
postagger.load(os.path.join(LTP_DATA_DIR, 'pos.model')) # 加載模型
postags = postagger.postag(words)
#postags = postagger.postag(['中國', '進出口', '銀行', '與', '中國銀行', '加強', '合作', '。'])
print(list(postags))
# 依存句法分析
parser = Parser()
parser.load(os.path.join(LTP_DATA_DIR, 'parser.model'))
arcs = parser.parse(words, postags)
print('\t'.join('%d:%s' %(arc.head, arc.relation) for arc in arcs))
# 命名實體識別
recognizer = NamedEntityRecognizer() # 實例化
recognizer.load(os.path.join(LTP_DATA_DIR, 'ner.model'))
netags = recognizer.recognize(words, postags)
print(list(netags))
# 語義角色標注
labeller = SementicRoleLabeller()
labeller.load(os.path.join(LTP_DATA_DIR, 'pisrl_win.model'))
roles = labeller.label(words, postags, arcs)
for role in roles:
print(role.index, "".join(
["%s:(%d,%d)" % (arg.name, arg.range.start, arg.range.end) for arg in role.arguments]))
segmentor.release() # 釋放
postagger.release()
parser.release()
recognizer.release()
labeller.release()
