spaCy教程學習


spaCy教程學習

作者|PRATEEK JOSHI
編譯|VK
來源|Analytics Vidhya

介紹

spaCy是我的自然語言處理(NLP)任務的必備庫。我冒昧地說,大多數專家都是這樣!

如今,在眾多的NLP庫中,spaCy確實獨樹一幟。如果你在NLP上用過spaCy,你就會知道我在說什么。如果你對spaCy的強大功能還不熟悉,你會被這個庫的多功能性和靈活性所吸引。

spaCy的優點是它提供一系列優良的特性,庫也是易用的,以及庫總是保持最新。

spaCy入門

如果你對spaCy還不熟悉,你應該注意以下幾點:

  • spaCy的統計模型

  • spaCy的處理管道

讓我們詳細討論一下每一個問題。

spaCy的統計模型

這些模型是spaCy的核心。這些模型使spaCy能夠執行一些與NLP相關的任務,例如詞性標記、命名實體識別和依存關系解析。

下面我列出了spaCy中的不同統計模型及其規范:

  • en_core_web_sm:英語多任務CNN,在OntoNotes上訓練,大小為11 MB

  • en_core_web_md:英語多任務CNN,在OntoNotes上訓練,並且使用Common Crawl上訓練的GLoVe詞嵌入,大小為91 MB

  • en_core_web_lg:英語多任務CNN,在OntoNotes上訓練,並且使用Common Crawl上訓練的GLoVe詞嵌入,大小為789 MB

導入這些模型非常容易。我們可以通過執行spacy.load(‘model_name’) 導入模型,如下所示:

import spacy
nlp = spacy.load('en_core_web_sm')

spaCy的處理管道

使用spaCy時,文本字符串的第一步是將其傳遞給NLP對象。這個對象本質上是由幾個文本預處理操作組成的管道,輸入文本字符串必須通過這些操作。

如上圖所示,NLP管道有多個組件,如標記生成器、標簽器、解析器、ner等。因此,在處理輸入文本字符串之前,必須先通過所有這些組件。

讓我演示如何創建nlp對象:

import spacy
nlp = spacy.load('en_core_web_sm')

# 創建nlp對象
doc = nlp("He went to play basketball")

你可以使用以下代碼找出活動的管道組件:

nlp.pipe_names

輸出:['tagger','parser','ner']

如果您希望禁用管道組件並僅保持ner的運行,則可以使用下面的代碼禁用管道組件:

nlp.disable_pipes('tagger', 'parser')

讓我們再次檢查活動管道組件:

nlp.pipe_names

輸出:['ner']

當您只需要標記文本時,就可以禁用整個管道。標記化過程變得非常快。例如,可以使用以下代碼行禁用管道的多個組件:

nlp.disable_pipes('tagger', 'parser')

spaCy實戰

現在,讓我們練手。在本節中,你將學習使用spaCy執行各種NLP任務。我們將從流行的NLP任務開始,包括詞性標記、依存分析和命名實體識別。

1.詞性標注

在英語語法中,詞類告訴我們一個詞的功能是什么,以及如何在句子中使用。英語中常用的詞類有名詞、代詞、形容詞、動詞、副詞等。

詞性標注是自動將詞性標注分配給句子中所有單詞的任務。它有助於NLP中的各種下游任務,如特征工程、語言理解和信息提取。

在spaCy中執行POS標記是一個簡單的過程:

import spacy 
nlp = spacy.load('en_core_web_sm')

# 創建nlp對象
doc = nlp("He went to play basketball")
 
# 遍歷token
for token in doc:
    # Print the token and its part-of-speech tag
    print(token.text, "-->", token.pos_)

輸出:

He –> PRON
went –> VERB
to –> PART
play –> VERB
basketball –> NOUN

因此,該模型正確識別了句子中所有單詞的POS標記。如果你對這些標記中的任何一個都不確定,那么您可以簡單地使用spacy.explain()來確定:

spacy.explain("PART")

輸出: ‘particle’

2.使用spaCy進行依存分析

每個句子都有一個語法結構,通過依存句法分析,我們可以提取出這個結構。它也可以看作是一個有向圖,其中節點對應於句子中的單詞,節點之間的邊是單詞之間的對應依賴關系。

在spaCy中,執行依存分析同樣非常容易。我們將使用與詞性標注相同的句子:

# 依存分析
for token in doc:
    print(token.text, "-->", token.dep_)

輸出:

He –> nsubj
went –> ROOT
to –> aux
play –> advcl
basketball –> dobj

依存標記ROOT表示句子中的主要動詞或動作。其他詞與句子的詞根有直接或間接的聯系。通過執行下面的代碼,你可以了解其他標記的含義:

spacy.explain("nsubj"), spacy.explain("ROOT"), spacy.explain("aux"), spacy.explain("advcl"), spacy.explain("dobj")

輸出:

(‘nominal subject’,
None,
‘auxiliary’,
‘adverbial clause modifier’,
‘direct object’)

3.基於spaCy的命名實體識別

首先讓我們了解什么是實體。實體是表示諸如個人、地點、組織等常見事物的信息的詞或詞組。這些實體具有專有名稱。

例如,請考慮以下句子:

在這句話中,實體是“Donald Trump”、“Google”和“New York City”。

現在讓我們看看spaCy如何識別句子中的命名實體。

doc = nlp("Indians spent over $71 billion on clothes in 2018")
 
for ent in doc.ents:
    print(ent.text, ent.label_)

輸出:

Indians NORP
over $71 billion MONEY
2018 DATE

spacy.explain("NORP")

輸出:‘Nationalities or religious or political groups’

4.基於規則的spaCy匹配

基於規則的匹配是spaCy的新功能。使用這個spaCy匹配器,您可以使用用戶定義的規則在文本中查找單詞和短語。

就像正則表達式。

正則表達式使用文本模式來查找單詞和短語,而spaCy匹配器不僅使用文本模式,還使用單詞的詞匯屬性,如POS標記、依賴標記、詞根等。

讓我們看看它是如何工作的:

import spacy
nlp = spacy.load('en_core_web_sm')

# 導入 spaCy Matcher
from spacy.matcher import Matcher

#用spaCy詞匯表初始化Matcher
matcher = Matcher(nlp.vocab)

doc = nlp("Some people start their day with lemon water")

# 定義規則
pattern = [{'TEXT': 'lemon'}, {'TEXT': 'water'}]

# 添加規則
matcher.add('rule_1', None, pattern)

所以,在上面的代碼中:

  • 首先,我們導入spaCy matcher

  • 之后,我們用默認的spaCy詞匯表初始化matcher對象

  • 然后,我們像往常一樣在NLP對象中傳遞輸入

  • 在下一步中,我們將為要從文本中提取的內容定義規則。

假設我們想從文本中提取“lemon water”這個短語。所以,我們的目標是water跟在lemon后面。最后,我們將定義的規則添加到matcher對象。

現在讓我們看看matcher發現了什么:

matches = matcher(doc)
matches

輸出: [(7604275899133490726, 6, 8)]

輸出有三個元素。第一個元素“7604275899133490726”是匹配ID。第二個和第三個元素是匹配標記的位置。

# 提取匹配文本
for match_id, start, end in matches:
    # 獲得匹配的寬度
    matched_span = doc[start:end]
    print(matched_span.text)

輸出:lemon water

因此,模式是一個標記屬性列表。例如,“TEXT”是一個標記屬性,表示標記的確切文本。實際上,spaCy中還有許多其他有用的標記屬性,可以用來定義各種規則和模式。

我列出了以下標記屬性:

屬性 類型 描述
ORTH unicode 精確匹配的文本
TEXT unicode 精確匹配的文本
LOWER unicode 文本小寫形式
LENGTH int 文本的長度
IS_ALPHA, IS_ASCII, IS_DIGIT bool 文本由字母字符、ASCII字符、數字組成。
IS_LOWER, IS_UPPER, IS_TITLE bool 文本是小寫、大寫、首字母大寫格式的。
IS_PUNCT, IS_SPACE, IS_STOP bool 文本是標點符號、空格、停用詞。
LIKE_NUM, LIKE_URL, LIKE_EMAIL bool 文本表示數字、URL和電子郵件。
POS, TAG, DEP, LEMMA, SHAPE unicode 文本是詞性標記、依存標簽、詞根、形狀。
ENT_TYPE unicode 實體標簽

讓我們看看spaCy matcher的另一個用例。考慮下面的兩句話:

  1. You can read this book
  2. I will book my ticket

現在我們感興趣的是找出一個句子中是否含有“book”這個詞。看起來挺直截了當的對吧?但這里有一個問題——只有當“book”這個詞在句子中用作名詞時,我們才能找到它。

在上面的第一句中,“book”被用作名詞,在第二句中,它被用作動詞。因此,spaCy匹配器應該只能從第一句話中提取。我們試試看:

doc1 = nlp("You read this book")
doc2 = nlp("I will book my ticket")

pattern = [{'TEXT': 'book', 'POS': 'NOUN'}]

# 用共享的vocab初始化matcher
matcher = Matcher(nlp.vocab)
matcher.add('rule_2', None, pattern)
matches = matcher(doc1)
matches

輸出: [(7604275899133490726, 3, 4)]

matcher在第一句話中找到了模式。

matches = matcher(doc2)
matches

輸出:[]

很好!盡管“book”出現在第二句話中,matcher卻忽略了它,因為它不是一個名詞。

結尾

這是一個很短的介紹,讓你嘗嘗spaCy能做什么。相信我,你會發現自己在NLP任務中經常使用spaCy。我鼓勵你使用這些代碼,從DataHack中獲取一個數據集,並使用spaCy嘗試使用它。

原文鏈接:https://www.analyticsvidhya.com/blog/2020/03/spacy-tutorial-learn-natural-language-processing/

歡迎關注磐創AI博客站:
http://panchuang.net/

sklearn機器學習中文官方文檔:
http://sklearn123.com/

歡迎關注磐創博客資源匯總站:
http://docs.panchuang.net/


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM