前言
簡單來說互聯網是由一個個站點和網絡設備組成的大網,我們通過瀏覽器訪問站點,站點把HTML、JS、CSS代碼返回給瀏覽器,這些代碼經過瀏覽器解析、渲染,將豐富多彩的網頁呈現我們眼前;
一、爬蟲是什么?
如果我們把互聯網比作一張大的蜘蛛網,數據便是存放於蜘蛛網的各個節點,而爬蟲就是一只小蜘蛛,
沿着網絡抓取自己的獵物(數據)爬蟲指的是:向網站發起請求,獲取資源后分析並提取有用數據的程序;
從技術層面來說就是 通過程序模擬瀏覽器請求站點的行為,把站點返回的HTML代碼/JSON數據/二進制數據(圖片、視頻) 爬到本地,進而提取自己需要的數據,存放起來使用;
二、爬蟲的基本流程:
用戶獲取網絡數據的方式:
方式1:瀏覽器提交請求--->下載網頁代碼--->解析成頁面
方式2:模擬瀏覽器發送請求(獲取網頁代碼)->提取有用的數據->存放於數據庫或文件中
爬蟲要做的就是方式2;
1、發起請求
使用http庫向目標站點發起請求,即發送一個Request
Request包含:請求頭、請求體等
Request模塊缺陷:不能執行JS 和CSS 代碼
2、獲取響應內容
如果服務器能正常響應,則會得到一個Response
Response包含:html,json,圖片,視頻等
3、解析內容
解析html數據:正則表達式(RE模塊),第三方解析庫如Beautifulsoup,pyquery等
解析json數據:json模塊
解析二進制數據:以wb的方式寫入文件
4、保存數據
數據庫(MySQL,Mongdb、Redis)
文件
三、http協議 請求與響應
Request:用戶將自己的信息通過瀏覽器(socket client)發送給服務器(socket server)
Response:服務器接收請求,分析用戶發來的請求信息,然后返回數據(返回的數據中可能包含其他鏈接,如:圖片,js,css等)
ps:瀏覽器在接收Response后,會解析其內容來顯示給用戶,而爬蟲程序在模擬瀏覽器發送請求然后接收Response后,是要提取其中的有用數據。
四、 request
1、請求方式:
常見的請求方式:GET / POST
2、請求的URL
url全球統一資源定位符,用來定義互聯網上一個唯一的資源 例如:一張圖片、一個文件、一段視頻都可以用url唯一確定
url編碼
https://www.baidu.com/s?wd=圖片
圖片會被編碼(看示例代碼)
網頁的加載過程是:
加載一個網頁,通常都是先加載document文檔,
在解析document文檔的時候,遇到鏈接,則針對超鏈接發起下載圖片的請求
3、請求頭
User-agent:請求頭中如果沒有user-agent客戶端配置,服務端可能將你當做一個非法用戶host;
cookies:cookie用來保存登錄信息
注意: 一般做爬蟲都會加上請求頭
請求頭需要注意的參數:
(1)Referrer:訪問源至哪里來(一些大型網站,會通過Referrer 做防盜鏈策略;所有爬蟲也要注意模擬)
(2)User-Agent:訪問的瀏覽器(要加上否則會被當成爬蟲程序)
(3)cookie:請求頭注意攜帶
4、請求體
請求體
如果是get方式,請求體沒有內容 (get請求的請求體放在 url后面參數中,直接能看到)
如果是post方式,請求體是format data
ps:
1、登錄窗口,文件上傳等,信息都會被附加到請求體內
2、登錄,輸入錯誤的用戶名密碼,然后提交,就可以看到post,正確登錄后頁面通常會跳轉,無法捕捉到post
五、 響應Response
1、響應狀態碼
200:代表成功
301:代表跳轉
404:文件不存在
403:無權限訪問
502:服務器錯誤
2、respone header
響應頭需要注意的參數:
(1)Set-Cookie:BDSVRTM=0; path=/:可能有多個,是來告訴瀏覽器,把cookie保存下來
(2)Content-Location:服務端響應頭中包含Location返回瀏覽器之后,瀏覽器就會重新訪問另一個頁面
3、preview就是網頁源代碼
JSO數據
如網頁html,圖片
二進制數據等
六、總結
1、總結爬蟲流程:
爬取--->解析--->存儲
2、爬蟲所需工具:
請求庫:requests,selenium(可以驅動瀏覽器解析渲染CSS和JS,但有性能劣勢(有用沒用的網頁都會加載);)
解析庫:正則,beautifulsoup,pyquery
存儲庫:文件,MySQL,Mongodb,Redis
3、爬獲校花網
最后送給大家點福利吧
基礎版:

import re import requests respose=requests.get('http://www.xiaohuar.com/v/') # print(respose.status_code)# 響應的狀態碼 # print(respose.content) #返回字節信息 # print(respose.text) #返回文本內容 urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S) #re.S 把文本信息轉換成1行匹配 url=urls[5] result=requests.get(url) mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0] video=requests.get(mp4_url) with open('D:\\a.mp4','wb') as f: f.write(video.content)
函數封裝版

import re import requests import hashlib import time # respose=requests.get('http://www.xiaohuar.com/v/') # # print(respose.status_code)# 響應的狀態碼 # # print(respose.content) #返回字節信息 # # print(respose.text) #返回文本內容 # urls=re.findall(r'class="items".*?href="(.*?)"',respose.text,re.S) #re.S 把文本信息轉換成1行匹配 # url=urls[5] # result=requests.get(url) # mp4_url=re.findall(r'id="media".*?src="(.*?)"',result.text,re.S)[0] # # video=requests.get(mp4_url) # # with open('D:\\a.mp4','wb') as f: # f.write(video.content) # def get_index(url): respose = requests.get(url) if respose.status_code==200: return respose.text def parse_index(res): urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S) # re.S 把文本信息轉換成1行匹配 return urls def get_detail(urls): for url in urls: if not url.startswith('http'): url='http://www.xiaohuar.com%s' %url result = requests.get(url) if result.status_code==200 : mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S) if mp4_url_list: mp4_url=mp4_url_list[0] print(mp4_url) # save(mp4_url) def save(url): video = requests.get(url) if video.status_code==200: m=hashlib.md5() m.updata(url.encode('utf-8')) m.updata(str(time.time()).encode('utf-8')) filename=r'%s.mp4'% m.hexdigest() filepath=r'D:\\%s'%filename with open(filepath, 'wb') as f: f.write(video.content) def main(): for i in range(5): res1 = get_index('http://www.xiaohuar.com/list-3-%s.html'% i ) res2 = parse_index(res1) get_detail(res2) if __name__ == '__main__': main()
並發版(如果一共需要爬30個視頻,開30個線程去做,花的時間就是 其中最慢那份的耗時時間)

import re import requests import hashlib import time from concurrent.futures import ThreadPoolExecutor p=ThreadPoolExecutor(30) #創建1個程池中,容納線程個數為30個; def get_index(url): respose = requests.get(url) if respose.status_code==200: return respose.text def parse_index(res): res=res.result() #進程執行完畢后,得到1個對象 urls = re.findall(r'class="items".*?href="(.*?)"', res,re.S) # re.S 把文本信息轉換成1行匹配 for url in urls: p.submit(get_detail(url)) #獲取詳情頁 提交到線程池 def get_detail(url): #只下載1個視頻 if not url.startswith('http'): url='http://www.xiaohuar.com%s' %url result = requests.get(url) if result.status_code==200 : mp4_url_list = re.findall(r'id="media".*?src="(.*?)"', result.text, re.S) if mp4_url_list: mp4_url=mp4_url_list[0] print(mp4_url) # save(mp4_url) def save(url): video = requests.get(url) if video.status_code==200: m=hashlib.md5() m.updata(url.encode('utf-8')) m.updata(str(time.time()).encode('utf-8')) filename=r'%s.mp4'% m.hexdigest() filepath=r'D:\\%s'%filename with open(filepath, 'wb') as f: f.write(video.content) def main(): for i in range(5): p.submit(get_index,'http://www.xiaohuar.com/list-3-%s.html'% i ).add_done_callback(parse_index) #1、先把爬主頁的任務(get_index)異步提交到線程池 #2、get_index任務執行完后,會通過回調函add_done_callback()數通知主線程,任務完成; #2、把get_index執行結果(注意線程執行結果是對象,調用res=res.result()方法,才能獲取真正執行結果),當做參數傳給parse_index #3、parse_index任務執行完畢后, #4、通過循環,再次把獲取詳情頁 get_detail()任務提交到線程池執行 if __name__ == '__main__': main()
涉及知識:多線程多進程
計算密集型任務:使用多進程,因為能Python有GIL,多進程可以利用上CPU多核優勢;
IO密集型任務:使用多線程,做IO切換節省任務執行時間(並發)
線程池
參考博客:
瞎驢http://www.cnblogs.com/linhaifeng/articles/7773496.html