前言
今天我們就用爬蟲攜程旅游景點數據爬取與可視化並做簡單的數據可視化分析唄。讓我們愉快地開始吧~
開發工具
Python版本:3.6.4
相關模塊:
bs4模塊;
jieba模塊;
pyecharts模塊;
wordcloud模塊;
requests模塊;
以及一些Python自帶的模塊。
環境搭建
安裝Python並添加到環境變量,pip安裝需要的相關模塊即可。
數據爬取
首先,我們來明確一下我們想要爬取的數據是哪些,這里為了方便起見,我們只爬取北京市的旅游景點數據,如下圖所示:
即我們需要爬取的數據為北京市所有景點的名稱,位置,評分等數據。明確了我們的爬取目標,就可以開始寫代碼啦~
代碼實現起來其實也很簡單,可以發現景點信息頁的url變化規律如下:
'https://you.ctrip.com/sight/beijing1/s0-p頁碼.html#sightname'
那么我們只需要逐一請求所有相關網頁,並借助bs4解析並提取我們需要的數據即可。同時,為了避免爬蟲被封,我們每請求10次網頁,就更換一個代理,代理來源則是網上爬取的免費代理。
具體而言,代碼實現如下:
'''攜程旅游景點爬蟲'''
代碼運行效果如下:
All done~完整源代碼詳見個人簡介或者私信獲取相關文件。
數據可視化
老規矩,寫完爬蟲可視化一波數據,方便起見,還是用剛剛爬取的北京景點數據吧~
首先,把所有景點的位置信息做成詞雲看看?
看看景點的評分分布唄:
再來統計一下景區評級分布唄:
其中,5A級景區有:
故宮
再來看看價格分布唄:
最后看看評論最多的8個景區是啥如何?
文章到這里就結束了,感謝你的觀看,關注我每天分享Python爬蟲實戰系列,下篇文章分享爬取攜程旅游景點數據爬取與可視化。