零基礎學習python_爬蟲(53課)


 1、Url的格式簡單介紹,如下圖:

 2、我們要對網站進行訪問,需要用到python中的一個模塊或者說一個包吧,urllib(這個在python2中是urllib+urllib2,python3將這兩個合並為一)

Urllib這個包內有幾個模塊,我們用最難的那個就可以啦,哈哈哈,request模塊。

  • urllib.request.urlopen(urldata=None[timeout]*cafile=Nonecapath=Nonecadefault=Falsecontext=None)

 url:  網站地址         data:Post要提交的數據 (不寫的話默認為get請求)       timeout:設置網站的訪問超時時間

直接用urllib.request模塊的urlopen()獲取頁面,html的數據格式為bytes類型,需要decode()解碼,轉換成str類型。

舉個簡單的實例,我們爬取百度的網址:

import urllib.request as urt   #模塊別名
response = urt.urlopen(r"https://www.cnblogs.com/")    #獲取博客地址內容
html = response.read()                  #因為是一個對象,所以用讀的方式將內容讀出
html = html.decode('utf-8')      #因為是二進制(byte的類型)的字符串,要解碼成unicode
print(html)

urlopen返回對象提供方法:

  • read() , readline() ,readlines() , fileno() , close() :對HTTPResponse類型數據進行操作。
  • info():返回HTTPMessage對象,即服務器返回的頭信息。
  • getcode():返回Http狀態碼。
  • geturl():返回請求的url地址。

urllib.request.urlopen實際上執行的是兩個動作,先是urllib.request.Request(url)然后再urlopen這個對象,因此我們可以通過Request來包裝請求,然后再通過urlopen來訪問地址。

  • urllib.request.Request(url, data=None, headers={}, method=None)

import urllib.request

url = r'http://www.lagou.com/zhaopin/Python/?labelWords=label'
#以字典形式添加,當然有些只需要添加User-Agent 即可
headers = {                        
    'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36',
    'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
    'Connection': 'keep-alive'
}

req = urllib.request.Request(url, headers=headers)        #這里可以添加header頭
page = urllib.request.urlopen(req).read()
page = page.decode('utf-8')
print(page)

用來包裝頭部的數據:

  1. User-Agent :這個頭部可以攜帶如下幾條信息:瀏覽器名和版本號、操作系統名和版本號等
  2. Referer:可以用來防止盜鏈,有一些網站圖片顯示來源http://***.com,就是檢查Referer來鑒定的
  3. Connection:表示連接狀態,記錄Session的狀態。

剛剛開始的時候我們用urlopen做了get請求,現在我們試試post請求,以下面實例進行講解:

from urllib import request, parse

url = r'https://www.lagou.com/jobs/companyAjax.json?needAddtionalResult=false&isSchoolJob=0'

headers = {
    'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36',
    'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
    'Connection': 'keep-alive'
}

data = {
    'first': 'true',
    'pn': 1,
    'kd': 'Java'
}

data = parse.urlencode(data).encode('utf-8')      #Post的數據必須是bytes或者iterable of bytes,不能是str,因此需要進行encode()編碼  
req = request.Request(url, headers=headers, data=data)     #也可以將data數據在urlopen中再傳入
page = request.urlopen(req).read()              
page = page.decode('utf-8')          
print(page)

這里需要注意下:urllib.parse.urlencode(query, doseq=False, safe='', encoding=None, errors=None),這個是將數據格式變成人家能看懂的數據,經過urlencode()轉換后的data數據為URL后面加上?first=true?pn=1?kd=Java

  當然,有些網站為了防止別人爬蟲或者惡意訪問,可能會做諸多限制,比如發現同一個ip一秒內下載了幾十張圖片,那么這肯定就有可能不是正常訪問,因此很可能就會判斷為爬蟲或者其它,然后發個驗證碼讓你輸入,為了避免這種情況出現,於是乎我們使用代理的方式進行訪問,例子如下:

  • urllib.request.ProxyHandler(proxies=None

import urllib.request
import random

url = 'http://www.whatismyip.com.tw'
iplist = ['180.149.131.67:80','27.221.93.217:80','111.2.122.46:8080']

proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
opener = urllib.request.build_opener(proxy_support)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/5')]
urllib.request.install_opener(opener)
response = urllib.request.urlopen(url)
html = response.read().decode('utf-8')
print(html)

上面是代碼,我們來詳細說下整個過程:

1、首先我們先創建一個代理處理器 ProxyHandler,ProxyHandler是一個類,其參數是一個字典,上面就是我們的iplist,我們本來也可以寫一個ip,但是由於免費的代理ip不穩定,因此我們寫成了一個列表,然后每次隨機從列表中取出一個代理Ip。

什么是Handler?Handler也叫作處理器,每個handlers知道如何通過特定協議打開URLs,或者如何處理URL打開時的各個方面,例如HTTP重定向或者HTTP cookies。

2、定制(創建)一個opener,opener = urllib.request.build_opener(proxy_support)

什么是opener?python在打開一個url鏈接時,就會使用opener。其實,urllib.request.urlopen()函數實際上是使用的是默認的opener,只不過在這里我們需要定制一個opener來指定handler。

3、安裝opener,urllib.request.install_opener(opener),install_opener 用來創建(全局)默認opener,這個表示調用urlopen將使用你安裝的opener,當然你也可以不用安裝,你可以直接opener.open(url),修改上面的代碼為:

import urllib.request
import random

url = 'http://www.whatismyip.com.tw'
iplist = ['180.149.131.67:80','27.221.93.217:80','111.2.122.46:8080']

proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)})
opener = urllib.request.build_opener(proxy_support)
opener.addheaders = [('User-Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/5')]
#urllib.request.install_opener(opener)   #注釋了這一行,下一行修改為 opener.open(url),但是我們這樣修改如果使用urlopen的話就不會打開我們特制的opener,因此這個看需求而定。
response = opener.open(url)
html = response.read().decode('utf-8')

print(html)

 下面說下異常處理,詳細就不多說了,看下就知道了,如下:

from urllib import request, parse

url = r'https://www.lagou.com/jobs/companyAjax.json?needAddtionalResult=false&isSchoolJob=0'

headers = {
    'User-Agent': r'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36',
    'Referer': r'http://www.lagou.com/zhaopin/Python/?labelWords=label',
    'Connection': 'keep-alive'
}

data = {
    'first': 'true',
    'pn': 1,
    'kd': 'Java'
}

data = parse.urlencode(data).encode('utf-8')      #Post的數據必須是bytes或者iterable of bytes,不能是str,因此需要進行encode()編碼  
try:
    req = request.Request(url, headers=headers, data=data)     #也可以將data數據在urlopen中再傳入
    page = request.urlopen(req).read()              
    page = page.decode('utf-8')
    print(page)
except error.HTTPError as e:
    print(e.code())
    print(e.read().decode('utf-8'))

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM