Python 爬蟲從入門到進階之路(十七)


在之前的文章中我們介紹了 scrapy 框架並給予 scrapy 框架寫了一個爬蟲來爬取《糗事百科》的糗事,本章我們繼續說一下 scrapy 框架並對之前的糗百爬蟲做一下優化和豐富。

在上一篇文章中,我們在項目中創建了一個 qiushiSpider.py 的文件,代碼如下:

 1 import scrapy
 2 from ..items import QiushiItem
 3 
 4 
 5 class QiushiSpider(scrapy.Spider):
 6     # 爬蟲名
 7     name = "qiubai"
 8     # 允許爬蟲作用的范圍,不能越界
 9     allowd_domains = ["https://www.qiushibaike.com/"]
10     # 爬蟲起始url
11     start_urls = ["https://www.qiushibaike.com/text/page/1/"]
12 
13     # 我們無需再像之前利用 urllib 庫那樣去請求地址返回數據,在 scrapy 框架中直接利用下面的 parse 方法進行數據處理即可。
14     def parse(self, response):
15         # 通過 scrayy 自帶的 xpath 匹配想要的信息
16         qiushi_list = response.xpath('//div[contains(@id,"qiushi_tag")]')
17         for site in qiushi_list:
18             # 實例化從 items.py 導入的 QiushiItem 類
19             item = QiushiItem()
20             # 根據查詢發現匿名用戶和非匿名用戶的標簽不一樣
21             try:
22                 # 非匿名用戶
23                 username = site.xpath('./div/a/img/@alt')[0].extract()  # 作者
24                 imgUrl = site.xpath('./div/a/img/@src')[0].extract()  # 頭像
25             except Exception:
26                 # 匿名用戶
27                 username = site.xpath('./div/span/img/@alt')[0].extract()  # 作者
28                 imgUrl = site.xpath('./div/span/img/@src')[0].extract()  # 頭像
29             content = site.xpath('.//div[@class="content"]/span[1]/text()').extract()
30             item['username'] = username
31             item['imgUrl'] = "https:" + imgUrl
32             item['content'] = content
33             yield item

在上面的代碼中我們定義了一個 QiubaiSpider 的類,並且集成了 scrapy.Spider,我們就對這個類做一下詳細分析。

Spider類定義了如何爬取某個(或某些)網站。包括了爬取的動作(例如:是否跟進鏈接)以及如何從網頁的內容中提取結構化數據(爬取item)。 換句話說,Spider就是您定義爬取的動作及分析某個網頁(或者是有些網頁)的地方。

 class scrapy.Spider 是最基本的類,所有編寫的爬蟲必須繼承這個類。

主要用到的函數及調用順序為:

 __init__()  初始化爬蟲名字和start_urls列表

 start_requests() 調用 make_requests_from url() 生成Requests對象交給Scrapy下載並返回response

 parse() 解析response,並返回Item或Requests(需指定回調函數)。Item傳給Item pipline持久化 , 而Requests交由Scrapy下載,並由指定的回調函數處理(默認parse() ),一直進行循環,直到處理完所有的數據為止。

 1 #所有爬蟲的基類,用戶定義的爬蟲必須從這個類繼承
 2 class Spider(object_ref):
 3 
 4     #定義spider名字的字符串(string)。spider的名字定義了Scrapy如何定位(並初始化)spider,所以其必須是唯一的。
 5     #name是spider最重要的屬性,而且是必須的。
 6     #一般做法是以該網站(domain)(加或不加 后綴 )來命名spider。 例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite
 7     name = None
 8 
 9     #初始化,提取爬蟲名字,start_ruls
10     def __init__(self, name=None, **kwargs):
11         if name is not None:
12             self.name = name
13         # 如果爬蟲沒有名字,中斷后續操作則報錯
14         elif not getattr(self, 'name', None):
15             raise ValueError("%s must have a name" % type(self).__name__)
16 
17         # python 對象或類型通過內置成員__dict__來存儲成員信息
18         self.__dict__.update(kwargs)
19 
20         #URL列表。當沒有指定的URL時,spider將從該列表中開始進行爬取。 因此,第一個被獲取到的頁面的URL將是該列表之一。 后續的URL將會從獲取到的數據中提取。
21         if not hasattr(self, 'start_urls'):
22             self.start_urls = []
23 
24     # 打印Scrapy執行后的log信息
25     def log(self, message, level=log.DEBUG, **kw):
26         log.msg(message, spider=self, level=level, **kw)
27 
28     # 判斷對象object的屬性是否存在,不存在做斷言處理
29     def set_crawler(self, crawler):
30         assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler
31         self._crawler = crawler
32 
33     @property
34     def crawler(self):
35         assert hasattr(self, '_crawler'), "Spider not bounded to any crawler"
36         return self._crawler
37 
38     @property
39     def settings(self):
40         return self.crawler.settings
41 
42     #該方法將讀取start_urls內的地址,並為每一個地址生成一個Request對象,交給Scrapy下載並返回Response
43     #該方法僅調用一次
44     def start_requests(self):
45         for url in self.start_urls:
46             yield self.make_requests_from_url(url)
47 
48     #start_requests()中調用,實際生成Request的函數。
49     #Request對象默認的回調函數為parse(),提交的方式為get
50     def make_requests_from_url(self, url):
51         return Request(url, dont_filter=True)
52 
53     #默認的Request對象回調函數,處理返回的response。
54     #生成Item或者Request對象。用戶必須實現這個類
55     def parse(self, response):
56         raise NotImplementedError
57 
58     @classmethod
59     def handles_request(cls, request):
60         return url_is_from_spider(request.url, cls)
61 
62     def __str__(self):
63         return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self))
64 
65     __repr__ = __str__

主要屬性和方法

  • name

    定義spider名字的字符串。

    例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite

  • allowed_domains

    包含了spider允許爬取的域名(domain)的列表,可選。

  • start_urls

    初始URL元祖/列表。當沒有制定特定的URL時,spider將從該列表中開始進行爬取。

  • start_requests(self)

    該方法必須返回一個可迭代對象(iterable)。該對象包含了spider用於爬取(默認實現是使用 start_urls 的url)的第一個Request。

    當spider啟動爬取並且未指定start_urls時,該方法被調用。

  • parse(self, response)

    當請求url返回網頁沒有指定回調函數時,默認的Request對象回調函數。用來處理網頁返回的response,以及生成Item或者Request對象。

  • log(self, message[, level, component])

    使用 scrapy.log.msg() 方法記錄(log)message。

接下來我們再將之前的的糗百爬蟲進行一下豐富。之前的爬蟲,我們只是爬取了第一頁內糗事,即  start_urls = ["https://www.qiushibaike.com/text/page/1/"] ,其中最末尾的 1 即代表了當前頁碼,所以當該頁數據爬取完畢后讓其自動 +1 即為下一頁內容,然后再接着爬取我們想要的數據。

 1 import scrapy
 2 from ..items import QiushiItem
 3 import re
 4 
 5 
 6 class QiushiSpider(scrapy.Spider):
 7     # 爬蟲名
 8     name = "qiubai"
 9     # 允許爬蟲作用的范圍,不能越界
10     allowd_domains = ["https://www.qiushibaike.com/"]
11     # 爬蟲起始url
12     start_urls = ["https://www.qiushibaike.com/text/page/1/"]
13 
14     # 我們無需再像之前利用 urllib 庫那樣去請求地址返回數據,在 scrapy 框架中直接利用下面的 parse 方法進行數據處理即可。
15     def parse(self, response):
16         # 通過 scrayy 自帶的 xpath 匹配想要的信息
17         qiushi_list = response.xpath('//div[contains(@id,"qiushi_tag")]')
18         for site in qiushi_list:
19             # 實例化從 items.py 導入的 QiushiItem 類
20             item = QiushiItem()
21             # 根據查詢發現匿名用戶和非匿名用戶的標簽不一樣
22             try:
23                 # 非匿名用戶
24                 username = site.xpath('./div/a/img/@alt')[0].extract()  # 作者
25                 imgUrl = site.xpath('./div/a/img/@src')[0].extract()  # 頭像
26             except Exception:
27                 # 匿名用戶
28                 username = site.xpath('./div/span/img/@alt')[0].extract()  # 作者
29                 imgUrl = site.xpath('./div/span/img/@src')[0].extract()  # 頭像
30             content = site.xpath('.//div[@class="content"]/span[1]/text()').extract()
31             item['username'] = username
32             item['imgUrl'] = "https:" + imgUrl
33             item['content'] = content
34 
35             # 通過 re 模塊匹配到請求的 url 里的數字
36             currentPage = re.search('(\d+)', response.url).group(1)
37             page = int(currentPage) + 1
38             url = re.sub('\d+', str(page), response.url)
39 
40             # 將獲取的數據交給 pipeline
41             yield item
42 
43             # 發送新的 url 請求加入待爬隊列,並調用回調函數 self.parse
44             yield scrapy.Request(url, callback=self.parse)

在上面的代碼中,我們在將獲取到的 item 數據交給管道文件 pipeline 之后,獲取到此時的請求 url 鏈接,根據 re 模塊獲取到鏈接里的數字,即頁碼數,然后將頁碼數 +1,再次發送新的 url 鏈接請求即可獲取其余頁碼的數據了。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM