python爬蟲利器Selenium使用詳解


簡介:

用pyhon爬取動態頁面時普通的urllib2無法實現,例如下面的京東首頁,隨着滾動條的下拉會加載新的內容,而urllib2就無法抓取這些內容,此時就需要今天的主角selenium。

Selenium是一個用於Web應用程序測試的工具。Selenium測試直接運行在瀏覽器中,就像真正的用戶在操作一樣。支持的瀏覽器包括IE、Mozilla Firefox、Mozilla Suite等。使用它爬取頁面也十分方便,只需要按照訪問步驟模擬人在操作就可以了,完全不用操心Cookie,Session的處理,它甚至可以幫助你輸入賬戶,密碼,然后點擊登陸按鈕,對於上面的滾動條,你只需要讓瀏覽器滾到到最低端,然后保存頁面就可以了。以上的這些功能在應對一些反爬蟲機制時十分有用。接下來就開始我們的講解正文,帶領大家實現一個需要登錄的動態網頁的爬取。

 案例實現:

使用selnium需要選擇一個調用的瀏覽器並下載好對應的驅動,在桌面版可以選擇Chrome,FireFox等,服務器端可以使用PhantomJS,桌面版可以直接調出來瀏覽器觀察到變化,所以一般我們可以在桌面版用Chrome等調試好之后,將瀏覽器改為PhantomJS然后上傳到服務器使其運行,這里我們直接以PhantomJS做演示.

首先時導入模塊:

1 from selenium.webdriver.common.desired_capabilities import DesiredCapabilities 2 from selenium import webdriver

接下來時初始化一個瀏覽器,參數中可以指定加載網頁的一些屬性:

1 cap = webdriver.DesiredCapabilities.PHANTOMJS 2 cap["phantomjs.page.settings.resourceTimeout"] = 180
3 cap["phantomjs.page.settings.loadImages"] = False 4 
5 driver = webdriver.PhantomJS(executable_path="/home/gaorong/phantomjs-2.1.1-linux-x86_64/bin/phantomjs", desired_capabilities=cap)

上面初始了PhantomJS並設置了瀏覽器的路徑,加載屬性選擇了資源加載超時時間和不加載圖片(我們只關心網頁文本)。在 這里 還可以選擇其他設置。

 設置一些屬性,並下載一個網頁

1 driver.set_page_load_timeout(180) 2 driver.get('https://otx.alienvault.com/accounts/login/') 3 time.sleep(5) 4 driver.save_screenshot('./login.png')   #為便於調試,保存網頁的截圖

 

 由於在服務器端運行難免出錯,可以用save_screenshot保存當前網頁的頁面便於調試。

接下來就是輸入賬戶和密碼登陸,以獲取網站的Cookies,便於后面請求。

 1 #輸入username和password 
 2 driver.find_element_by_xpath("/html/body/div[1]/div[1]/login/div[2]/div/form/input[1]").send_keys('*****')  3 time.sleep(1)  4 print 'input user success!!!'
 5 
 6 driver.find_element_by_xpath("/html/body/div[1]/div[1]/login/div[2]/div/form/input[2]").send_keys('****')  7 time.sleep(1)  8 print 'input password success!!!'
 9 
10 driver.find_element_by_xpath("/html/body/div[1]/div[1]/login/div[2]/div/form/button").click() 11 time.sleep(5)

 

 上面代碼使用find_element_by_xpath獲取輸入框的位置后輸入賬戶和密碼並點擊登陸鍵,可以看到一些都很方便。它會自動跳轉到下一個頁面,我們只需要sleep幾秒等待它。

我們需要爬取的網頁信息在某個特定的element里,所以我們需要判斷一下這個element是否出現:

 1  try:  2      element = WebDriverWait(driver, 10).until(  3          EC.presence_of_element_located((By.CLASS_NAME, 'pulses'))  4  )  5      print 'find element!!!'        
 6  except:  7      print 'not find element!!!'
 8      print traceback.format_exc()  9  driver.quit()

 

上面判斷 class為 'pulse' 這個element是否出現,如果等待10s后還未出現,則selenum會爆出TimeoutError錯誤。

上面就進行了基本的初始化,然后就需要處理動態的內容了,這個網頁像京東一樣會隨着下拉自動出現內容,所以我們需要實現下拉滾動條:

1 print 'begin scroll to get info page...'
2 t1 = time.time() 3 n = 60   #這里可以控制網頁滾動距離
4 for i in range(1,n+1): 5     s = "window.scrollTo(0,document.body.scrollHeight/{0}*{1});".format(n,i) 6     #輸出滾動位置,網頁大小,和時間
7     print s, len(driver.page_source),time.time()-t1 8  driver.execute_script(s) 9     time.sleep(2)

 

其中driver.page_source就是獲取網頁文本。當滾動完畢后我們就可以調用它然后寫到一個文件里。這樣就完成了這個的程序邏輯。

高級:

用selenim可以應對常見的反爬蟲策略,因為相當於一個人在瀏覽網頁,但是對於驗證碼這些還需要做額外的處理,還有一點就是訪問速度不能過快,畢竟他需要調用一個瀏覽器,如果嫌他速度慢的話我們可以在必要的時候使用他,非必要時候可以使用requests庫進行操作。

這里有兩篇博客大家可以參考查閱:Python爬蟲利器五之Selenium用法 和 常用函數 

同時還有一個Selenum IDE可以進行腳本錄制及案例轉換,我想大家在生活中都可以用得着,參見這里

 

 

 

 

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM