Python爬蟲實戰,Scrapy實戰,爬取並簡單分析知網中國專利數據


前言

今天我們就用scrapy爬一波知網的中國專利數據並做簡單的數據可視化分析唄。讓我們愉快地開始吧~

PS:本項目僅供學習交流,實踐本項目時煩請設置合理的下載延遲與爬取的專利數據量,避免給知網服務器帶來不必要的壓力。

開發工具

Python版本:3.6.4
相關模塊:

scrapy模塊;

fake_useragent模塊;

pyecharts模塊;

wordcloud模塊;

jieba模塊;

以及一些Python自帶的模塊。

環境搭建

安裝Python並添加到環境變量,pip安裝需要的相關模塊即可。

數據爬取

我們需要爬取的數據例如下圖所示:

即包括以下這些內容:

爬取思路:

我們可以很容易地發現每個專利的詳情頁url都是類似這樣的:

http://dbpub.cnki.net/grid2008/dbpub/Detail.aspx?DBName=SCPD年份&FileName=專利公開號&QueryID=4&CurRec=1

因此,只要改變專利公開號即可獲得對應專利的詳情頁url(經測試,即使年份對不上也沒關系),從而獲得對應專利的信息,具體而言代碼實現如下:

All done~完整源代碼詳見個人簡介相關文件。

PS:代碼運行方式為運行main.py文件。

數據可視化

為避免給知網服務器帶來不必要的壓力,這里我們只爬了2014年的一部分知網中國專利數據(就跑了一個多小時吧),對這些數據進行可視化分析的結果如下。

我們先來看看申請專利的省份分布唄:

然后再來統計一下專利代理機構?

最后再來看看所有專利摘要做成的詞雲唄:

還有所有專利標題做成的詞雲唄:

文章到這里就結束了,感謝你的觀看,關注我每天分享Python系列爬蟲,下篇文章分享Python爬蟲知乎表情包。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM