注意:這文章是2月份寫的,拉勾網早改版了,代碼已經失效了,大家意思意思就好,主要看代碼的使用方法吧。。
最近一直在用且有維護的另一個爬蟲是KINDLE 特價書爬蟲,blog地址見此: http://www.cnblogs.com/weibaar/p/4824578.html
博客內容簡介及目錄 http://www.cnblogs.com/weibaar/p/6644261.html
R語言爬蟲初嘗試-基於RVEST包學習
Thursday, February 26, 2015
在學完coursera的getting and Cleaning data后,繼續學習用R弄爬蟲網絡爬蟲。主要用的還是Hadley Wickham開發的rvest包。再次給這位矜矜業業開發各種好用的R包的大神奉上膝蓋
查閱資料如下:
- rvest的github
- rvest自身的幫助文檔
- rvest + CSS Selector 網頁數據抓取的最佳選擇-戴申: 里面有提及如何快速獲得html的位置。看完這篇,想想我之前看代碼看半天分段真是逗比。。經測試,遨游瀏覽器,右鍵,審查元素可以得到類似結果。戴申的blog里面還有若干相關文章,國內RVEST資料基本就靠他的BLOG了,感激!
言歸正傳,拿了幾個網頁練手。包括對拉勾網爬了一下蟲,還嘗試了對國外某黃頁爬蟲,對ebay用戶評價爬蟲分析其賣家賣的東西主要在哪個價格段(我查的那個賣家,賣8.99和39.99最多,鞋子類),做了一下文本挖掘,還有爬了一下股票數據,基金買入情況等等。
之所以放拉勾網為例子,因為這個大家都比較熟一點?其他的都有點小眾=_=而且雖然我沒有跳槽的心,但年初卻是很多人跳槽的熱點。另外,因為之前聽人說過,要了解一個公司的動態,有一個辦法是去看這個公司放出來的招聘崗位,可以知道他們最近哪個業務線要擴張了,哪個業務線要跑人了,以及了解技術需求。
rvest基礎語法:
library(rvest) lagou<-"http://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?kd=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&spc=2&pl=&gj=&xl=&yx=&gx=&st=&labelWords=&lc=&workAddress=&city=%E6%B7%B1%E5%9C%B3&requestId=&pn=3" web<-html(lagou,encoding="UTF-8") #讀取數據,規定編碼 #之前我是用關鍵字搜索,閱讀html代碼,獲得html_nodes里需要什么屬性,不過許多瀏覽器有開發者工具,可以直接獲得層級信息。如遨游 position<-web %>% html_nodes("li div.hot_pos_l a") %>% html_text() #上面就是直接讀取數據,獲得位置信息 #不過在后面做其他網站時發現,有時候信息儲存在同類數據里(如div沒有class等等),建議是找一個大的分類,先獲得表格信息,再做數據 list_lagou<-web %>% html_nodes("li.clearfix") #這里正確找准正確的划分點很重要。有<li class="odd clearfix">,其實用li.clearfix一樣可以取(對於空格二選一,如"li.odd"或者"li.clearfix") #接下來的company/position照選即可,因為事先已經分好了list,所以每一個出多少心里有數。。
在講完原理之后,現在開始嘗試寫代碼
因為里面涉及太多的選取數據工作。為了避免出現太多變量,我最后是編了一個函數,輸出數據庫
函數部分
#下面開始寫代碼,首先寫一個函數getdata,會輸出一個數據框 getdata<-function(page,urlwithoutpage){ url=paste0(urlwithoutpage,page) #這里輸入拉勾網沒有頁碼的url web<-html(url,encoding="UTF-8") #讀取數據,規定編碼,access用 list_lagou<-web %>% html_nodes("li.clearfix") #獲得一個清單,15個職位 title<-list_lagou %>% html_nodes("div.hot_pos_l div.mb10 a")%>%html_text() company<-list_lagou %>% html_nodes("div.hot_pos_r div.mb10 a")%>%html_text() link<-gsub("\\?source\\=search","",list_lagou %>% html_nodes("div.hot_pos_l div.mb10 a")%>%html_attr("href")) #接下來的由於數據都存在span里,沒有很好的划分。這個取數要復雜一些。我在這里,研究他們的表,先取15個完整list,然后用seq等序列取數 #之后要研究是否有更好的方法 #如果有table,可以直接用data.table取數更快。。。 temp<-list_lagou %>% html_nodes("div.hot_pos_l span") city<-temp[seq(1,90,by=6)] %>% html_text() salary<-gsub("月薪:","",temp[seq(2,90,by=6)]%>% html_text()) year<-gsub("經驗:","",temp[seq(3,90,by=6)]%>% html_text()) degree<-gsub("最低學歷:","",temp[seq(4,90,by=6)]%>%html_text()) benefit<-gsub("職位誘惑:","",temp[seq(5,90,by=6)]%>% html_text()) time<-temp[seq(6,90,by=6)]%>%html_text() data.frame(title,company,city,salary,year,degree,benefit,time,link) }
然后是使用該函數,我這里就爬兩頁
#使用該函數, library(rvest) url<-"http://www.lagou.com/jobs/list_%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90?kd=%E6%95%B0%E6%8D%AE%E5%88%86%E6%9E%90&spc=2&pl=&gj=&xl=&yx=&gx=&st=&labelWords=&lc=&workAddress=&city=%E6%B7%B1%E5%9C%B3&requestId=&pn=" final<-data.frame() for (i in 3:5){ final<-rbind(final,getdata(i,url)) } #定義個數,把上面的getdata得到的Data.frame合並 head(final)
上面完成了第一個列表。爬出效果如圖

關於這個數據有什么用呢…… 簡單來說,我們可以用它來看這個網上有多少在招的,各公司招人的比例,以及薪資水平,做一點基礎的數據分析。
雖然我現在不跳槽,不過了解一下市場狀況也是不錯的~譬如見下圖,從目前這網上的平均薪資與工作年限的關系來看,數據分析崗至少在職位前五年屬於薪資增長期,初始漲得快,后面漲得慢,但平均應有13%左右的增長?然后這網上目前沒有什么高級崗位開出來(工作5-10年的崗位很少),反而是有些公司搞錯分類,放了一堆數據錄入的到數據分析欄目。。。

值得一提的是,因為數據分析這個類目里包含了不同的類別,如數據錄入的也被歸到數據分析,還有高薪也被歸到這里,所以不能完全按這個做參考。不過這個研究讓我深刻體會到了爬蟲的有效性!好玩!實用!可以用到工作中去:) 還可以像個獵頭一樣了解人才市場~~做個有情調的數據分析師~~
另外,其實我們還可以遍歷JD,看近期是什么技術最吃香,是R還是Python還是SQL還是SAS還是別的啥啥啥。下面是我隨機抽了個JD做的爬蟲。可以直接拿到相關數據。
final[1,9] ## [1] http://www.lagou.com/jobs/378361.html ## 45 Levels: http://www.lagou.com/jobs/113293.html ... url<-as.character(final[1,9]) w<-html(url,encoding = "UTF-8") d<-w %>% html_nodes("dd.job_bt p") %>% html_text() d ## [1] "1.金融、計算機、財務、經濟相關專業;" ## [2] "2.有證券從業資格證者優先;" ## [3] "3.想從事文職類工作,對辦公軟件熟悉;" ## [4] "4.可接收已拿到學歷證的應屆畢業生。" ## [5] "<U+00A0>"
注意事項:
-
對於被編碼保護的數據(如國外yellow.local.ch,email被編碼保護了。需要用 decodeURIComponent函數反編譯。)
-
xpath語句對html_nodes適用。但是它好像是全局語句。。就是如果用div[1]//span[4]取數的話,它直接就只出全局的那個結果。。。
- 如
- 取數,可以用li.da或者li.daew取數,兩者等價
-
正則表達式很有用!!尤其是對網頁數據,某些不會寫,或者技術高超不願意被我們爬蟲的工程師,用rvest去抓數據,會抓到一堆堆亂碼= =這幾天練習下來感受到了無盡惡意
-
中文,
html(data,encoding='UTF-8')還有iconv(data,'utf-8','gbk')可以有效避免大部分亂碼。但是R對中文支持真的很渣。 -
rvest對於靜態抓取很方便!但是對於腳本訪問的網頁,還需要繼續學習RCurl包。備查資料如下:
- javascript數據提取-RCurl包-戴申: 介紹對腳本解析后抓取數據經驗
- RCurl提取統計之都論壇數據演示-medo
等學會了再寫總結。
以及最后的最后,近期研究重點應該是IT金融?受張丹老師的兩條均線與R語言)鼓舞好大!我覺得學R嘛,用到實處才是重要的!玩爬蟲玩的太開心都沒跟JHU的課了。。。。
以后可以嘗試按照自己和老爸的看股票習慣開發出類似的選股模型來~~
以及,我之前有看到有個牛人用python爬了各大網站程序員相關的招聘信息:程序員網站codejob 有興趣的可以去看看。
