一、文本挖掘定義
文本挖掘指的是從文本數據中獲取有價值的信息和知識,它是數據挖掘中的一種方法。文本挖掘中最重要最基本的應用是實現文本的分類和聚類,前者是有監督的挖掘算法,后者是無監督的挖掘算法。
二、文本挖掘步驟
1)讀取數據庫或本地外部文本文件
2)文本分詞
2.1)自定義字典
2.2)自定義停止詞
2.3)分詞
2.4)文字雲檢索哪些詞切的不准確、哪些詞沒有意義,需要循環2.1、2.2和 2.3步驟
3)構建文檔-詞條矩陣並轉換為數據框
4)對數據框建立統計、挖掘模型
5)結果反饋
三、文本挖掘所需工具
本次文本挖掘將使用R語言實現,除此還需加載幾個R包,它們是tm包、tmcn包、Rwordseg包和wordcloud包。其中tmcn包和Rwordseg包無法在CRAN鏡像中下載到,有關這兩個包的下載方法。
四、實戰
本文所用數據集來自於sougou實驗室數據,具體可至鏈接下載>>>
本文對該數據集做了整合,將各個主題下的新聞匯總到一張csv表格中,數據格式如下圖所示:
具體數據可至文章后面的鏈接。
接下來需要對新聞內容進行分詞,在分詞之前需要導入一些自定義字典,目的是提高切詞的准確性。由於文本中涉及到軍事、醫療、財經、體育等方面的內容,故需要將搜狗字典插入到本次分析的字典集中。
如果需要卸載某些已導入字典的話,可以使用uninstallDict()函數。
分詞前將中文中的英文字母統統去掉。
圖中圈出來的詞對后續的分析並沒有什么實際意義,故需要將其剔除,即刪除停止詞。
停止詞創建好后,該如何刪除76條新聞中實際意義的詞呢?下面通過自定義刪除停止詞的函數加以實現。
相比與之前的分詞結果,這里瘦身了很多,剔除了諸如“是”、“的”、“到”、“這”等無意義的次。 判別分詞結果的好壞,最快捷的方法是繪制文字雲,可以清晰的查看哪些詞不該出現或哪些詞分割的不准確。
仍然存在一些無意義的詞(如說、日、個、去等)和分割不准確的詞語(如黃金周切割為黃金,醫葯切割為葯等),這里限於篇幅的原因,就不進行再次添加自定義詞匯和停止詞。
此時語料庫中存放了76條新聞的分詞結果。
從圖中可知,文檔-詞條矩陣包含了76行和7939列,行代表76條新聞,列代表7939個詞;該矩陣實際上為稀疏矩陣,其中矩陣中非0元素有11655個,而0元素有591709,稀疏率達到98%;最后,這7939個詞中,最頻繁的一個詞出現在了49條新聞中。
由於稀疏矩陣的稀疏率過高,這里將剔除一些出現頻次極地的詞語。
這樣一來,矩陣中列大幅減少,當前矩陣只包含了116列,即116個詞語。
為了便於進一步的統計建模,需要將矩陣轉換為數據框格式。
總結
所以在實際的文本挖掘過程中,最為困難和耗費時間的就是分詞部分,既要准確分詞,又要剔除無意義的詞語,這對文本挖掘者是一種挑戰。 文中數據和腳本可至如下鏈接下載: http://yunpan.cn/cupyBj9xTkHe7 訪問密碼 a88b
免費公開課福利: