python 詞雲小demo


詞雲小demo

一 什么是詞雲?

由詞匯組成類似雲的彩色圖形。“詞雲”就是對網絡文本中出現頻率較高的“關鍵詞”予以視覺上的突出,形成“關鍵詞雲層”或“關鍵詞渲染”,從而過濾掉大量的文本信息,使瀏覽網頁者只要一眼掃過文本就可以領略文本的主旨。

二 有什么作用?

1、直觀,高大上

2、可裝逼,很瀟灑

三 准備工作

1、導入包——jieba和wordcloud

命令:pip install jieba

命令:pip install wordcloud

備注:對於pycharm等可采用各自的方法導入包

2、文本和圖片的准備

文本:可爬取網上資料或某歌曲書籍等關鍵字,亦或是像我是自己手動輸入文字並用tab隔開

圖片:找自己喜歡的圖片,這里我采用喬巴的圖片作為背景,而且除了主要人物外,其他背景都為白色,顯示效果較好。

采用的文本內容:

paper going keep fighting happy Backpropagation/BP AI
Technology Chine new year you tahnks hha
hmmm emmm yesterday sunday Batch Normalization/BN autoencoder
ALL Data big math python abc Thanks for your reminder, I’ll update resource dll to fix those issue.

采用的圖片:
enter description here

四 代碼如下:

# coding: utf-8
import jieba
from wordcloud import WordCloud,STOPWORDS
from scipy.misc import imread # 處理圖像的函數
import matplotlib.pyplot as plt
# 讀取文本文件
text = open('t1.txt', 'r').read()
# 對文本進行分詞
cut_text = ''.join(jieba.cut(text))#cut分詞,然后將分開的詞用空格連接
# 讀取圖片
color_mask = imread('ciyun.jpg')
# 生成詞雲
cloud = WordCloud(# 這里是導入字體,因為我是采用英文的,所有不導入也並不影響,若是中文的或者有其他的字符需要自己選擇合適的字體包
 background_color="white",
 mask=color_mask,
 max_words=2000,
 max_font_size=80)
word_cloud = cloud.generate(cut_text)
cloud.to_file('ss.png')#保存文件
#使用plt顯示圖片
plt.axis('off')#不顯示坐標軸
#顯示圖片
plt.imshow(word_cloud)
plt.show()

五 效果如下:

 

效果圖
效果圖

 

六 解析

6.1 jieba(結巴)是一個強大的分詞庫,完美支持中文分詞,本文對其基本用法做一個簡要總結。
6.1.2 基本分詞函數與用法
jieba.cut 以及 jieba.cut_for_search 返回的結構都是一個可迭代的 generator,可以使用 for 循環來獲得分詞后得到的每一個詞語(unicode)
jieba.cut 方法接受三個輸入參數:

  • 需要分詞的字符串
  • cut_all 參數用來控制是否采用全模式 (精准模式和全模式,默認是精准模式)
  • HMM 參數用來控制是否使用 HMM 模型

jieba.cut_for_search (搜索引擎模式)方法接受兩個參數

  • 需要分詞的字符串
  • 是否使用 HMM 模型。
    該方法適合用於搜索引擎構建倒排索引的分詞,粒度比較細
import jieba

list0 = jieba.cut('小明碩士畢業於中國科學院計算所,后在哈佛大學深造', cut_all=True)
print('全模式', list(list0))
# ['小', '明', '碩士', '畢業', '於', '中國', '中國科學院', '科學', '科學院', '學院', '計算', '計算所', '', '', '后', '在', '哈佛', '哈佛大學', '大學', '深造']
list1 = jieba.cut('小明碩士畢業於中國科學院計算所,后在哈佛大學深造', cut_all=False)
print('精准模式', list(list1))
# ['小明', '碩士', '畢業', '於', '中國科學院', '計算所', ',', '后', '在', '哈佛大學', '深造']
list2 = jieba.cut_for_search('小明碩士畢業於中國科學院計算所,后在哈佛大學深造')
print('搜索引擎模式', list(list2))
# ['小明', '碩士', '畢業', '於', '中國', '科學', '學院', '科學院', '中國科學院', '計算', '計算所', ',', '后', '在', '哈佛', '大學', '哈佛大學', '深造']

更詳細的用法參考:https://www.cnblogs.com/felixwang2/p/8660259.html,https://www.cnblogs.com/jiayongji/p/7119080.html
6.2 wordcloud(詞雲)庫
下面來介紹一下wordcloud包的基本用法。

class wordcloud.WordCloud(font_path=None, width=400, height=200, margin=2, ranks_only=None, prefer_horizontal=0.9,mask=None, scale=1, color_func=None, max_words=200, min_font_size=4, stopwords=None, random_state=None,background_color='black', max_font_size=None, font_step=1, mode='RGB', relative_scaling=0.5, regexp=None, collocations=True,colormap=None, normalize_plurals=True) 

這是wordcloud的所有參數,下面具體介紹一下各個參數:

font_path : string //字體路徑,需要展現什么字體就把該字體路徑+后綴名寫上,如:font_path = '黑體.ttf'

width : int (default=400) //輸出的畫布寬度,默認為400像素

height : int (default=200) //輸出的畫布高度,默認為200像素

prefer_horizontal : float (default=0.90) //詞語水平方向排版出現的頻率,默認 0.9 (所以詞語垂直方向排版出現頻率為 0.1 )

mask : nd-array or None (default=None) //如果參數為空,則使用二維遮罩繪制詞雲。如果 mask 非空,設置的寬高值將被忽略,遮罩形狀被 mask 取代。除全白(#FFFFFF)的部分將不會繪制,其余部分會用於繪制詞雲。如:bg_pic = imread('讀取一張圖片.png'),背景圖片的畫布一定要設置為白色(#FFFFFF),然后顯示的形狀為不是白色的其他顏色。可以用ps工具將自己要顯示的形狀復制到一個純白色的畫布上再保存,就ok了。

scale : float (default=1) //按照比例進行放大畫布,如設置為1.5,則長和寬都是原來畫布的1.5倍。

min_font_size : int (default=4) //顯示的最小的字體大小

font_step : int (default=1) //字體步長,如果步長大於1,會加快運算但是可能導致結果出現較大的誤差。

max_words : number (default=200) //要顯示的詞的最大個數

stopwords : set of strings or None //設置需要屏蔽的詞,如果為空,則使用內置的STOPWORDS

background_color : color value (default=”black”) //背景顏色,如background_color='white',背景顏色為白色。

max_font_size : int or None (default=None) //顯示的最大的字體大小

mode : string (default=”RGB”) //當參數為“RGBA”並且background_color不為空時,背景為透明。

relative_scaling : float (default=.5) //詞頻和字體大小的關聯性

color_func : callable, default=None //生成新顏色的函數,如果為空,則使用 self.color_func

regexp : string or None (optional) //使用正則表達式分隔輸入的文本

collocations : bool, default=True //是否包括兩個詞的搭配

colormap : string or matplotlib colormap, default=”viridis” //給每個單詞隨機分配顏色,若指定color_func,則忽略該方法。

fit_words(frequencies)  //根據詞頻生成詞雲
generate(text)  //根據文本生成詞雲
generate_from_frequencies(frequencies[, ...])   //根據詞頻生成詞雲
generate_from_text(text)    //根據文本生成詞雲
process_text(text)  //將長文本分詞並去除屏蔽詞(此處指英語,中文分詞還是需要自己用別的庫先行實現,使用上面的 fit_words(frequencies) )
recolor([random_state, color_func, colormap])   //對現有輸出重新着色。重新上色會比重新生成整個詞雲快很多。
to_array()  //轉化為 numpy array
to_file(filename)   //輸出到文件
原文:https://blog.csdn.net/u010309756/article/details/67637930 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM