手把手教你做文本挖掘


一、文本挖掘定義

文本挖掘指的是從文本數據中獲取有價值的信息和知識,它是數據挖掘中的一種方法。文本挖掘中最重要最基本的應用是實現文本的分類和聚類,前者是有監督的挖掘算法,后者是無監督的挖掘算法。

二、文本挖掘步驟

1)讀取數據庫或本地外部文本文件

2)文本分詞

2.1)自定義字典

2.2)自定義停止詞

2.3)分詞

2.4)文字雲檢索哪些詞切的不准確、哪些詞沒有意義,需要循環2.1、2.2和 2.3步驟

3)構建文檔-詞條矩陣並轉換為數據框

4)對數據框建立統計、挖掘模型

5)結果反饋

三、文本挖掘所需工具

本次文本挖掘將使用R語言實現,除此還需加載幾個R包,它們是tm包、tmcn包、Rwordseg包和wordcloud包。其中tmcn包和Rwordseg包無法在CRAN鏡像中下載到,有關這兩個包的下載方法。

四、實戰

本文所用數據集來自於sougou實驗室數據,具體可至鏈接下載>>>

本文對該數據集做了整合,將各個主題下的新聞匯總到一張csv表格中,數據格式如下圖所示:

具體數據可至文章后面的鏈接。

 

接下來需要對新聞內容進行分詞,在分詞之前需要導入一些自定義字典,目的是提高切詞的准確性。由於文本中涉及到軍事、醫療、財經、體育等方面的內容,故需要將搜狗字典插入到本次分析的字典集中。

如果需要卸載某些已導入字典的話,可以使用uninstallDict()函數。

分詞前將中文中的英文字母統統去掉。

圖中圈出來的詞對后續的分析並沒有什么實際意義,故需要將其剔除,即刪除停止詞。

停止詞創建好后,該如何刪除76條新聞中實際意義的詞呢?下面通過自定義刪除停止詞的函數加以實現。

相比與之前的分詞結果,這里瘦身了很多,剔除了諸如“是”、“的”、“到”、“這”等無意義的次。 判別分詞結果的好壞,最快捷的方法是繪制文字雲,可以清晰的查看哪些詞不該出現或哪些詞分割的不准確。

仍然存在一些無意義的詞(如說、日、個、去等)和分割不准確的詞語(如黃金周切割為黃金,醫葯切割為葯等),這里限於篇幅的原因,就不進行再次添加自定義詞匯和停止詞。

此時語料庫中存放了76條新聞的分詞結果。

從圖中可知,文檔-詞條矩陣包含了76行和7939列,行代表76條新聞,列代表7939個詞;該矩陣實際上為稀疏矩陣,其中矩陣中非0元素有11655個,而0元素有591709,稀疏率達到98%;最后,這7939個詞中,最頻繁的一個詞出現在了49條新聞中。

由於稀疏矩陣的稀疏率過高,這里將剔除一些出現頻次極地的詞語。

這樣一來,矩陣中列大幅減少,當前矩陣只包含了116列,即116個詞語。

為了便於進一步的統計建模,需要將矩陣轉換為數據框格式。

總結

所以在實際的文本挖掘過程中,最為困難和耗費時間的就是分詞部分,既要准確分詞,又要剔除無意義的詞語,這對文本挖掘者是一種挑戰。 文中數據和腳本可至如下鏈接下載: http://yunpan.cn/cupyBj9xTkHe7 訪問密碼 a88b

免費公開課福利:

美國西北大學海歸大咖主講,全國首例機器學習算法課程


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM