Python網絡爬蟲(session與ip代理池)


一、了解cookie和session

  1.1 無狀態的http協議:

  

  - 如上圖所示,HTTP協議 是無狀態的協議,用戶瀏覽服務器上的內容,只需要發送頁面請求,服務器返回內容。對於服務器來說,並不關心,也並不知道是哪個用戶的請求。對於一般瀏覽性的網頁來說,沒有任何問題。
  - 但是,現在很多的網站,是需要用戶登錄的。以淘寶為例:比如說某個用戶想購買一個產品,當點擊 “ 購買按鈕 ” 時,由於HTTP協議 是無狀態的,那對於淘寶來說,就不知道是哪個用戶操作的。
  - 為了實現這種用戶標記,服務器就采用了cookie這種機制來識別具體是哪一個用戶的訪問。

  1.2 了解Cookie:

  

  - 如圖,為了實現用戶標記,在Http無狀態請求的基礎之上,我們需要在請求中攜帶一些用戶信息(比如用戶名之類,這些信息是服務器發送到本地瀏覽器的,但是服務器並不存儲這些信息),這就是cookie機制。

- 需要注意的是:cookie信息是保存在本地瀏覽器里面的,服務器上並不存儲相關的信息。 在發送請求時,cookie的這些內容是放在 Http協議中的header 字段中進行傳輸的。

- 幾乎現在所有的網站都會發送一些 cookie信息過來,當用戶請求中攜帶了cookie信息,服務器就可以知道是哪個用戶的訪問了,從而不需要再使用賬戶和密碼登錄。

- 但是,剛才也提到了,cookie信息是直接放在Http協議的header中進行傳輸的,看得出來,這是個隱患!一旦別人獲取到你的cookie信息(截獲請求,或者使用你的電腦),那么他很容易從cookie中分析出你的用戶名和密碼。為了解決這個隱患,所以有了session機制。

  1.3 了解session:

- 剛才提到了cookie不安全,所以有了session機制。簡單來說(每個框架都不一樣,這只是舉一個通用的實現策略),整過過程是這樣: 
  - 服務器根據用戶名和密碼,生成一個session ID,存儲到服務器的數據庫中。
  - 用戶登錄訪問時,服務器會將對應的session ID發送給用戶(本地瀏覽器)。
  - 瀏覽器會將這個session ID存儲到cookie中,作為一個鍵值項。
  - 以后,瀏覽器每次請求,就會將含有session ID的cookie信息,一起發送給服務器。
  - 服務器收到請求之后,通過cookie中的session ID,到數據庫中去查詢,解析出對應的用戶名,就知道是哪個用戶的請求了。

  總結

- cookie 在客戶端(本地瀏覽器),session 在服務器端。cookie是一種瀏覽器本地存儲機制。存儲在本地瀏覽器中,和服務器沒有關系。每次請求,用戶會帶上本地cookie的信息。這些cookie信息也是服務器之前發送給瀏覽器的,或者是用戶之前填寫的一些信息。

- Cookie有不安全機制。 你不能把所有的用戶信息都存在本地,一旦被別人竊取,就知道你的用戶名和密碼,就會很危險。所以引入了session機制。

- 服務器在發送id時引入了一種session的機制,很簡單,就是根據用戶名和密碼,生成了一段隨機的字符串,這段字符串是有過期時間的。

- 一定要注意:session是服務器生成的,存儲在服務器的數據庫或者文件中,然后把sessionID發送給用戶,用戶存儲在本地cookie中。每次請求時,把這個session ID帶給服務器,服務器根據session ID到數據庫中去查詢,找到是哪個用戶,就可以對用戶進行標記了。

- session 的運行依賴 session ID,而 session ID 是存在 cookie 中的,也就是說,如果瀏覽器禁用了 cookie ,那么同時 session 也會失效(但是可以通過其它方式實現,比如在url中傳遞 session ID)

- 用戶驗證這種場合一般會用 session。 因此,維持一個會話的核心就是客戶端的唯一標識,即session ID

二、爬蟲實例(人人網個人主頁),requests模塊的cookie處理

  - cookie概念:當用戶通過瀏覽器首次訪問一個域名時,訪問的web服務器會給客戶端發送數據,以保持web服務器與客戶端之間的狀態保持,這些數據就是cookie。

  - cookie作用:我們在瀏覽器中,經常涉及到數據的交換,比如你登錄郵箱,登錄一個頁面。我們經常會在此時設置30天內記住我,或者自動登錄選項。那么它們是怎么記錄信息的呢,答案就是今天的主角cookie了,Cookie是由 HTTP服務器設置的,保存在瀏覽器中,但HTTP協議是一種無狀態協議,在數據交換完畢后,服務器端和客戶端的鏈接就會關閉,每次交換數據都需要建立新的鏈接。就像我們去超市買東西,沒有積分卡的情況下,我們買完東西之后,超市沒有我們的任何消費信息,但我們辦了積分卡之后,超市就有了我們的消費信息。cookie就像是積分卡,可以保存積分,商品就是我們的信息,超市的系統就像服務器后台,http協議就是交易的過程。

  - 經過cookie的相關介紹,那應該如何抓取到張三的個人信息頁呢?

  思路:

    1.我們需要使用爬蟲程序對人人網的登錄時的請求進行一次抓取,獲取請求中的cookie數據

    2.在使用個人信息頁的url進行請求時,該請求需要攜帶 1 中的cookie,只有攜帶了cookie后,服務器才可識別這次請求的用戶信息,方可響應回指定的用戶信息頁數據

  實例:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
if __name__ == "__main__":

    #登錄請求的url(通過抓包工具獲取)
    post_url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=201873958471'
    #創建一個session對象,該對象會自動將請求中的cookie進行存儲和攜帶
    session = requests.session()
   #偽裝UA
    headers={
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36',
    }
    formdata = {
        'email': '17701256561',
        'icode': '',
        'origURL': 'http://www.renren.com/home',
        'domain': 'renren.com',
        'key_id': '1',
        'captcha_type': 'web_login',
        'password': '7b456e6c3eb6615b2e122a2942ef3845da1f91e3de075179079a3b84952508e4',
        'rkey': '44fd96c219c593f3c9612360c80310a3',
        'f': 'https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3Dm7m_NSUp5Ri_ZrK5eNIpn_dMs48UAcvT-N_kmysWgYW%26wd%3D%26eqid%3Dba95daf5000065ce000000035b120219',
    }
    #使用session發送請求,目的是為了將session保存該次請求中的cookie
    session.post(url=post_url,data=formdata,headers=headers)

    get_url = 'http://www.renren.com/960481378/profile'
    #再次使用session進行請求的發送,該次請求中已經攜帶了cookie
    response = session.get(url=get_url,headers=headers)
    #設置響應內容的編碼格式
    response.encoding = 'utf-8'
    #將響應內容寫入文件
    with open('./renren.html','w') as fp:
        fp.write(response.text)

三、爬蟲實例(雪球新聞網),requests模塊的cookie處理

# 創建一個session對象
session = requests.Session()

# 將cookie保存到session對象中
first_url = 'https://xueqiu.com/'
# 為了獲取cookie且將cookie存儲到session中
session.get(url=first_url,headers=headers)

# 動態請求(ajax)數據的url地址
url = 'https://xueqiu.com/v4/statuses/public_timeline_by_category.json?since_id=-1&max_id=20343389&count=15&category=-1'
# 攜帶cookie發起的請求
json_data = session.get(url=url,headers=headers).json()
print(json_data)

四、基於requests模塊的代理操作

  4.1 什么是代理:

    代理就是第三方代替本體處理相關事務。例如:生活中的代理:代購,中介,微商......

  4.2 爬蟲中為什么需要使用代理:

    一些網站會有相應的反爬蟲措施,例如很多網站會檢測某一段時間某個IP的訪問次數,如果訪問頻率太快以至於看起來不像正常訪客,它可能就會會禁止這個IP的訪問。所以我們需要設置一些代理IP,每隔一段時間換一個代理IP,就算IP被禁止,依然可以換個IP繼續爬取。

  4.3 代理的分類:

    正向代理:代理客戶端獲取數據。正向代理是為了保護客戶端防止被追究責任。

    反向代理:代理服務器提供數據。反向代理是為了保護服務器或負責負載均衡。

  4.4 代理ip的匿名度:

透明:使用了透明的代理ip,則對方服務器知道你當前發起的請求使用了代理服務器並且可以監測到你真實的ip

匿名:知道你使用了代理服務器不知道你的真實ip

高匿:不知道你使用了代理服務器也不知道你的真實ip

4.5 代理ip的類型:

http:該類型的代理IP只可以轉發http協議的請求

https:只可以轉發https協議的請求

  4.6 免費代理ip提供網站:

# 全網代理IP
    - http://www.goubanjia.com/

# 西刺代理
    - https://www.xicidaili.com/nn/

# 快代理
    - https://www.kuaidaili.com/

# 代理精靈(推薦)
    - http://http.zhiliandaili.com/

五、IP代理處理:參數proxies

url = 'https://www.baidu.com/s?ie=UTF-8&wd=ip'

# proxies指定代理ip,proies=字典(ip_Type:ip+port) page_text = requests.get(url=url,headers=headers,proxies={'https':'212.64.51.13:8888'}).text with open('ip.html','w',encoding='utf-8') as fp: fp.write(page_text)

六、代理爬蟲實例(百度首頁獲取)

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import requests
import random
if __name__ == "__main__":
    #不同瀏覽器的UA
    header_list = [
        # 遨游
        {"user-agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)"},
        # 火狐
        {"user-agent": "Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1"},
        # 谷歌
        {
            "user-agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"}
    ]
    #不同的代理IP
    proxy_list = [
        {"http": "112.115.57.20:3128"},
        {'http': '121.41.171.223:3128'}
    ]
    #隨機獲取UA和代理IP
    header = random.choice(header_list)
    proxy = random.choice(proxy_list)

    url = 'http://www.baidu.com/s?ie=UTF-8&wd=ip'
    #參數3:設置代理
    response = requests.get(url=url,headers=header,proxies=proxy)
    response.encoding = 'utf-8'
    
    with open('daili.html', 'wb') as fp:
        fp.write(response.content)
    #切換成原來的IP
    requests.get(url, proxies={"http": ""})

七、代理精靈API應用

  獲取代理准備工作:

# 代理精靈應用
    - 注冊登錄代理精靈
    - 動態IP購買商城
    - API提取

  API提取,獲取IP示例:

# ip存儲列表
all_ips = []

# 代理精靈API接口(需要購買)
ip_url = 'http://ip.11jsq.com/index.php/api/entry?method=proxyServer.generate_api_url&packid=1&fa=0&fetch_key=&groupid=0&qty=53&time=1&pro=&city
  =&port=1&format=html&ss=5&css=&dt=1&specialTxt=3&specialJson=
' page_text = requests.get(ip_url,headers=headers).text tree = etree.HTML(page_text) # 獲取ip值 ip_list = tree.xpath('//body//text()') # 循環獲取,存入IP存儲列表中 for ip in ip_list: ip_dict = {'https':ip} all_ips.append(ip_dict)

八、代理爬蟲實例(抓取西刺IP)

#代理測試
import requests
from lxml import etree

import random
headers = {
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
}

# 西刺代理IP地址
url = 'https://www.xicidaili.com/nn/%d'

# 爬取1-100頁數據
for page in range(1,100):
    print('正在爬取第{}頁的數據!'.format(page))
    new_url = format(url%page)
    # 代理proxies使用
    page_text = requests.get(url=new_url,headers=headers,proxies=random.choice(all_ips)).text
    tree = etree.HTML(page_text)
    # 獲取tr列表
    tr_list = tree.xpath('//*[@id="ip_list"]//tr')[1:]
    for tr in tr_list:
        # 獲取ip
        ip = tr.xpath('./td[2]/text()')[0]
        # 獲取斷端口
        port = tr.xpath('./td[3]/text()')[0]
        # ip類型
        ip_type = tr.xpath('./td[6]/text()')[0]
        
        dic = {
            'ip':ip,
            'port':port,
            'type':ip_type
        }
        all_ips.append(dic)
    
print(len(all_ips))        

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM