安裝和使用pyltp


 

什么是pyltp:

pyltp 是LTP的 Python 封裝,提供了分詞,詞性標注,命名實體識別,依存句法分析,語義角色標注的功能。

安裝 pyltp

測試環境:系統win10 64位, python3.6.5

官方安裝是直接使用pip install pyltp命令安裝,但是經過多次反復實踐,到處是坑,最后放棄了

輪子文件安裝:1.下載pyltp-0.2.1-cp36-cp36m-win_amd64.whl文件,百度雲,提取碼:1gki 

       2.切換到下載文件的目錄,執行 pip install pyltp-0.2.1-cp36-cp36m-win_amd64.whl

 

使用 pyltp

使用前請先下載完整模型,百度雲,提取碼:7qk2,當前模型版本 - 3.4.0

請注意編碼:

  pyltp 的所有輸入的分析文本和輸出的結果的編碼均為 UTF-8。

  如果您以非 UTF-8 編碼的文本輸入進行分析,結果可能為空。請注意源代碼文件的默認編碼。

   由於 Windows 終端采用 GBK 編碼顯示,直接輸出 pyltp 的分析結果會在終端顯示為亂碼。您可以將標准輸出重定向到文件,以 UTF8 方式查看文件,就可以解決顯示亂碼的問題。

 

分句:

 使用 pyltp 進行分句示例如下:

'''
使用pyltp進行分句
'''


from pyltp import SentenceSplitter

sents = SentenceSplitter.split('元芳你怎么看?我就趴在窗口上看唄!元芳你怎么這樣子了?我哪樣子了?')
# print(sents)
# print('\n'.join(sents))
sents = '|'.join(sents)
print(sents)

 運行結果如下: 

元芳你怎么看?|我就趴在窗口上看唄!|元芳你怎么這樣子了?|我哪樣子了?

分詞:

使用 pyltp 進行分詞示例如下:

 

"""
使用pyltp進行分詞
"""

import os
from pyltp import Segmentor


LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分詞模型路徑, 模型名稱為'cws.model'

segmentor = Segmentor()  # 初始化實例
segmentor.load(cws_model_path)  # 加載模型
words = segmentor.segment('元芳你怎么看')  # 分詞
print(type(words))
print(type('|'.join(words)))
print('|'.join(words)) segmentor.release() # 釋放模型

 

 運行結果如下:

 

<class 'pyltp.VectorOfString'>
<class 'str'>
元芳|你|怎么|看

 

 

   words segmentor.segment('元芳你怎么看') 的返回值類型是native的VectorOfString類型,可以使用list轉換成Python的列表類型 

使用分詞外部詞典:

   pyltp 分詞支持用戶使用自定義詞典。分詞外部詞典本身是一個文本文件(plain text),每行指定一個詞,編碼同樣須為 UTF-8,樣例如下所示

  苯並芘
  亞硝酸鹽

 

示例如下:

'''
使用分詞外部詞典
'''

import os
from pyltp import Segmentor

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分詞模型路徑, 模型名稱為'cws.model'

segmentor = Segmentor()
segmentor.load_with_lexicon(cws_model_path, 'plain.txt')  # 加載模型,第二個參數是外部詞典文件路徑
words = segmentor.segment('亞硝酸鹽是一種化學物質')
print('|'.join(words))
segmentor.release()

 運行結果:

[INFO] 2019-05-10 15:18:05 loaded 2 lexicon entries
亞硝酸鹽|是|一|種|化學|物質

 

詞性標注:

使用 pyltp 進行詞性標注

'''
使用 pyltp 進行詞性標注
'''

import os
from pyltp import Postagger

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
pos_model_path = os.path.join(LTP_DATA_DIR, 'pos.model')  # 分詞模型路徑, 模型名稱為'pos.model'

postagger = Postagger()   # 初始化實例

postagger.load(pos_model_path)  # 加載模型

words = ['元芳', '你', '怎么', '看']   # words是分詞模塊的返回值,也支持Python原生list,此處使用list

postags = postagger.postag(words)   # 詞性標注

print('|'.join(postags))

postagger.release()  # 釋放模型

 運行結果:  

nh|r|r|v

 LTP 使用 863 詞性標注集,詳細請參考 詞性標准集。如下圖所示

 

命名實體識別

使用 pyltp 進行命名實體識別示例如下

'''
命名實體識別
'''

import os
from pyltp import NamedEntityRecognizer

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
ner_model_path = os.path.join(LTP_DATA_DIR, 'ner.model')  # 分詞模型路徑, 模型名稱為'c.model'

recognizer = NamedEntityRecognizer()   # 初始化實例

recognizer.load(ner_model_path)  # 加載模型

words = ['元芳', '你', '怎么', '看']   # 分詞模塊的返回值
postags = ['nh', 'r', 'r', 'v']   # 詞性標注的返回值

netags = recognizer.recognize(words, postags)  # 命名實體識別

print(netags)
print(list(netags))

recognizer.release()  # 釋放模型

 其中,words 和 postags 分別為分詞和詞性標注的結果。同樣支持Python原生的list類型。 

運行結果

<pyltp.VectorOfString object at 0x000002B3A798DBD0>
['S-Nh', 'O', 'O', 'O']

 

LTP 采用 BIESO 標注體系。B 表示實體開始詞,I表示實體中間詞,E表示實體結束詞,S表示單獨成實體,O表示不構成命名實體。

LTP 提供的命名實體類型為:人名(Nh)、地名(Ns)、機構名(Ni)。

B、I、E、S位置標簽和實體類型標簽之間用一個橫線 - 相連;O標簽后沒有類型標簽。

詳細標注請參考 命名實體識別標注集。

NE識別模塊的標注結果采用O-S-B-I-E標注形式,其含義為

標記 含義
O 這個詞不是NE
S 這個詞單獨構成一個NE
B 這個詞為一個NE的開始
I 這個詞為一個NE的中間
E 這個詞位一個NE的結尾

LTP中的NE 模塊識別三種NE,分別如下:

標記 含義
Nh 人名
Ni 機構名
Ns 地名

 

依存句法分析

使用 pyltp 進行依存句法分析示例如下

 

"""
依存句法分析
"""

import os
from pyltp import Parser

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
par_model_path = os.path.join(LTP_DATA_DIR, 'parser.model')  # 分詞模型路徑, 模型名稱為'parser.model'

parser = Parser()   # 初始化實例

parser.load(par_model_path)   # 加載模型

words = ['元芳', '你', '怎么', '看']

postags = ['nh', 'r', 'r', 'v']

arcs = parser.parse(words, postags)   # 句法分析

print('\t'.join('%d: %s' %(arc.head, arc.relation) for arc in arcs))

parser.release()   # 釋放模型

 

 其中,words 和 postags 分別為分詞和詞性標注的結果。同樣支持Python原生的list類型。 

運行結果

 

4: SBV	4: SBV	4: ADV	0: HED

 

 

arc.head 表示依存弧的父節點詞的索引。ROOT節點的索引是0,第一個詞開始的索引依次為1、2、3…

arc.relation 表示依存弧的關系。

arc.head 表示依存弧的父節點詞的索引,arc.relation 表示依存弧的關系。

標注集請參考依存句法關系

關系類型 Tag Description Example
主謂關系 SBV subject-verb 我送她一束花 (我 <– 送)
動賓關系 VOB 直接賓語,verb-object 我送她一束花 (送 –> 花)
間賓關系 IOB 間接賓語,indirect-object 我送她一束花 (送 –> 她)
前置賓語 FOB 前置賓語,fronting-object 他什么書都讀 (書 <– 讀)
兼語 DBL double 他請我吃飯 (請 –> 我)
定中關系 ATT attribute 紅蘋果 (紅 <– 蘋果)
狀中結構 ADV adverbial 非常美麗 (非常 <– 美麗)
動補結構 CMP complement 做完了作業 (做 –> 完)
並列關系 COO coordinate 大山和大海 (大山 –> 大海)
介賓關系 POB preposition-object 在貿易區內 (在 –> 內)
左附加關系 LAD left adjunct 大山和大海 (和 <– 大海)
右附加關系 RAD right adjunct 孩子們 (孩子 –> 們)
獨立結構 IS independent structure 兩個單句在結構上彼此獨立
核心關系 HED head 指整個句子的核心

  

 

語義角色標注

使用 pyltp 進行語義角色標注示例如下

'''
語義角色標注
'''


import os
from pyltp import SementicRoleLabeller

from demo6 import parser

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑
srl_model_path = os.path.join(LTP_DATA_DIR, 'pisrl_win.model')  # 分詞模型路徑, 模型名稱為'pisrl_win.model'

labeller = SementicRoleLabeller()  # 初始化實例
labeller.load(srl_model_path)   # 加載模型

words = ['元芳', '你', '怎么', '看']
postags = ['nh', 'r', 'r', 'v']

arcs = parser()
print(arcs)

  特別注意,windows系統此處用的模型是pirl_win.model

運行結果

[dynet] random seed: 2222491344
[dynet] allocating memory: 2000MB
[dynet] memory allocation done.
4: SBV	4: SBV	4: ADV	0: HED
<pyltp.VectorOfParseResult object at 0x0000026B5902DC30>
3 A0:(1,1)ADV:(2,2)

  

第一個詞開始的索引依次為0、1、2…

 

返回結果 roles 是關於多個謂詞的語義角色分析的結果。由於一句話中可能不含有語義角色,所以結果可能為空。

 

role.index 代表謂詞的索引, role.arguments 代表關於該謂詞的若干語義角色。

 

arg.name 表示語義角色類型,arg.range.start 表示該語義角色起始詞位置的索引,arg.range.end 表示該語義角色結束詞位置的索引。

 

例如上面的例子,由於結果輸出一行,所以“元芳你怎么看”有一組語義角色。 其謂詞索引為3,即“看”。這個謂詞有三個語義角色,范圍分別是(0,0)即“元芳”,(1,1)即“你”,(2,2)即“怎么”,類型分別是A0、A0、ADV。

 

arg.name 表示語義角色關系,arg.range.start 表示起始詞位置,arg.range.end 表示結束位置。

 

標注集請參考 語義角色關系。

 

語義角色類型 說明
ADV adverbial, default tag ( 附加的,默認標記 )
BNE beneficiary ( 受益人 )
CND condition ( 條件 )
DIR direction ( 方向 )
DGR degree ( 程度 )
EXT extent ( 擴展 )
FRQ frequency ( 頻率 )
LOC locative ( 地點 )
MNR manner ( 方式 )
PRP purpose or reason ( 目的或原因 )
TMP temporal ( 時間 )
TPC topic ( 主題 )
CRD coordinated arguments ( 並列參數 )
PRD predicate ( 謂語動詞 )
PSR possessor ( 持有者 )
PSE possessee ( 被持有 )


 完整示例

import os,sys
from pyltp import SentenceSplitter,Segmentor,Postagger,Parser,NamedEntityRecognizer,SementicRoleLabeller

LTP_DATA_DIR = r'E:\python_env\ltp\ltp_data_v3.4.0'   # LTP模型目錄路徑

cws_model_path = os.path.join(LTP_DATA_DIR, 'cws.model')  # 分詞模型路徑, 模型名稱為'cws.model'

paragraph = '中國進出口銀行與中國銀行加強合作。中國進出口銀行與中國銀行加強合作!'

sentence = SentenceSplitter.split(paragraph)[0]  # 分句並取第一句

# 分詞
segmentor = Segmentor()   # 初始化
segmentor.load(os.path.join(LTP_DATA_DIR, 'cws.model'))   # 加載模型
words = segmentor.segment(sentence)  # 分詞
print(list(words))
print('|'.join(words))

# 詞性標注
postagger = Postagger()  # 初始化
postagger.load(os.path.join(LTP_DATA_DIR, 'pos.model'))  # 加載模型
postags = postagger.postag(words)
#postags = postagger.postag(['中國', '進出口', '銀行', '與', '中國銀行', '加強', '合作', '。'])
print(list(postags))

# 依存句法分析
parser = Parser()
parser.load(os.path.join(LTP_DATA_DIR, 'parser.model'))
arcs = parser.parse(words, postags)
print('\t'.join('%d:%s' %(arc.head, arc.relation) for arc in arcs))


# 命名實體識別
recognizer = NamedEntityRecognizer()  # 實例化
recognizer.load(os.path.join(LTP_DATA_DIR, 'ner.model'))
netags = recognizer.recognize(words, postags)
print(list(netags))


# 語義角色標注
labeller = SementicRoleLabeller()
labeller.load(os.path.join(LTP_DATA_DIR, 'pisrl_win.model'))
roles = labeller.label(words, postags, arcs)
for role in roles:
    print(role.index, "".join(
            ["%s:(%d,%d)" % (arg.name, arg.range.start, arg.range.end) for arg in role.arguments]))

segmentor.release()  # 釋放
postagger.release()
parser.release()
recognizer.release()
labeller.release()


參考鏈接:https://pyltp.readthedocs.io/zh_CN/latest/

     https://github.com/HIT-SCIR/pyltp


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM