python爬蟲中的ip代理設置


設置ip代理是爬蟲必不可少的技巧;

查看本機ip地址;打開百度,輸入“ip地址”,可以看到本機的IP地址;

 

本文使用的是goubanjia.com里面的免費ip;

 

 使用時注意要注意傳輸協議是http還是https,代碼如下;

# 用到的庫
import requests
# 寫入獲取到的ip地址到proxy
proxy = {
    'https':'221.178.232.130:8080'
}
# 用百度檢測ip代理是否成功
url = 'https://www.baidu.com/s?'
# 請求網頁傳的參數
params={
    'wd':'ip地址'
}
# 請求頭
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'
}
# 發送get請求
response = requests.get(url=url,headers=headers,params=params,proxies=proxy)
# 獲取返回頁面保存到本地,便於查看
with open('ip.html','w',encoding='utf-8') as f:
    f.write(response.text)

打開存入的“ip.html”查看內容如下;

 

done.


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM