目的:建立自己的代理池。可以添加新的代理網站爬蟲,可以測試代理對某一網址的適用性,可以提供獲取代理的 API。
整個流程:爬取代理 ----> 將代理存入數據庫並設置分數 ----> 從數據庫取出代理並檢測 ----> 根據響應結果對代理分數進行處理 ----> 從 API 取出高分代理 ----> 用高分代理爬取目標網站
分析:
1、爬蟲類的編寫:負責抓取代理並返回。
- 因為不同的代理網站的網頁結構不同,所以需要單獨為每一個代理網頁寫爬蟲。
- 調用每個爬取方法,依次返回結果。
2、數據庫類的編寫:負責代理的存取與代理分數的設置。
- 判斷待存入代理是否存在,不存在便存入數據庫。
- 將代理存入數據庫,首次入庫的代理分數設置為100。
- 代理測試失敗時,代理分數做相應的扣除,分數低於指定值時從數據庫中移除。代理測試成功時,將代理分數重新設置為100。
- 需要使用代理時,從數據庫中隨機取出高分代理。
3、保存類的編寫:負責執行爬取,並將結果存入數據庫。
- 判斷數據庫是否已經達到滿足值,根據返回值決定是否執行爬取。
- 將爬取得到的結果存入數據庫
4、測試代理類的編寫:負責測試代理對目標網站的可用性。
- 用每一個代理爬取目標網站,根據響應狀態碼對代理分數進行設置。
5、提取代理 API 的編寫:負責提供獲取代理信息的接口。
具體實現:
1、Crawler:
2、RedisClient:
3、Saver:
4、Tester:
5、API:
總結:這里我只爬取了兩個代理網站的代理,西刺和快代理,可以在 Crawler 類中添加名稱以 crwal_ 開始的方法來擴充。詳細代碼我放到 Github上了,https://github.com/ysl125963/proxy-pool