Scrapy研究探索(五)——自動多網頁爬取(抓取某人博客所有文章)


首先,在教程(二)(http://blog.csdn.net/u012150179/article/details/32911511)中,研究的是爬取單個網頁的方法。在教程(三)(http://blog.csdn.net/u012150179/article/details/34441655)中,討論了Scrapy核心架構。現在在(二)的基礎上,並結合在(三)中提到的爬取多網頁的原理方法,進而進行自動多網頁爬取方法研究。

並且,為了更好的理解Scrapy核心架構以及數據流,在這里仍采用scrapy.spider.Spider作為編寫爬蟲的基類。

 

首先創建project:

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. scrapy startproject CSDNBlog  

 

 

一. items.py編寫

在這里為清晰說明,只提取文章名稱和文章網址。

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. # -*- coding:utf-8 -*-  
  2.   
  3. from scrapy.item import Item, Field  
  4.   
  5. class CsdnblogItem(Item):  
  6.     """存儲提取信息數據結構"""  
  7.   
  8.     article_name = Field()  
  9.     article_url = Field()  

 

 

二. pipelines.py編寫

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. import json  
  2. import codecs  
  3.   
  4. class CsdnblogPipeline(object):  
  5.   
  6.     def __init__(self):  
  7.         self.file = codecs.open('CSDNBlog_data.json', mode='wb', encoding='utf-8')  
  8.   
  9.     def process_item(self, item, spider):  
  10.         line = json.dumps(dict(item)) + '\n'  
  11.         self.file.write(line.decode("unicode_escape"))  
  12.   
  13.         return item  


其中,構造函數中以可寫方式創建並打開存儲文件。在process_item中實現對item處理,包含將得到的item寫入到json形式的輸出文件中。

 

 

三. settings.py編寫

對於setting文件,他作為配置文件,主要是至執行對spider的配置。一些容易被改變的配置參數可以放在spider類的編寫中,而幾乎在爬蟲運行過程中不改變的參數在settings.py中進行配置。

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. # -*- coding:utf-8 -*-  
  2.   
  3. BOT_NAME = 'CSDNBlog'  
  4.   
  5. SPIDER_MODULES = ['CSDNBlog.spiders']  
  6. NEWSPIDER_MODULE = 'CSDNBlog.spiders'  
  7.   
  8. #禁止cookies,防止被ban  
  9. COOKIES_ENABLED = False  
  10.   
  11. ITEM_PIPELINES = {  
  12.     'CSDNBlog.pipelines.CsdnblogPipeline':300  
  13. }  
  14.   
  15. # Crawl responsibly by identifying yourself (and your website) on the user-agent  
  16. #USER_AGENT = 'CSDNBlog (+http://www.yourdomain.com)'  

 

這里將COOKIES_ENABLED參數置為True,使根據cookies判斷訪問的站點不能發現爬蟲軌跡,防止被ban。

ITEM_PIPELINES類型為字典,用於設置啟動的pipeline,其中key為定義的pipeline類,value為啟動順序,默認0-1000。

 

四. 爬蟲編寫

爬蟲編寫始終是重頭戲。原理是分析網頁得到“下一篇”的鏈接,並返回Request對象。進而繼續爬取下一篇文章,直至沒有。

上碼:

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. #!/usr/bin/python  
  2. # -*- coding:utf-8 -*-  
  3.   
  4. # from scrapy.contrib.spiders import  CrawlSpider,Rule  
  5.   
  6. from scrapy.spider import Spider  
  7. from scrapy.http import Request  
  8. from scrapy.selector import Selector  
  9. from CSDNBlog.items import CsdnblogItem  
  10.   
  11.   
  12. class CSDNBlogSpider(Spider):  
  13.     """爬蟲CSDNBlogSpider"""  
  14.   
  15.     name = "CSDNBlog"  
  16.   
  17.     #減慢爬取速度 為1s  
  18.     download_delay = 1  
  19.     allowed_domains = ["blog.csdn.net"]  
  20.     start_urls = [  
  21.   
  22.         #第一篇文章地址  
  23.         "http://blog.csdn.net/u012150179/article/details/11749017"  
  24.     ]  
  25.   
  26.     def parse(self, response):  
  27.         sel = Selector(response)  
  28.   
  29.         #items = []  
  30.         #獲得文章url和標題  
  31.         item = CsdnblogItem()  
  32.   
  33.         article_url = str(response.url)  
  34.         article_name = sel.xpath('//div[@id="article_details"]/div/h1/span/a/text()').extract()  
  35.   
  36.         item['article_name'] = [n.encode('utf-8') for n in article_name]  
  37.         item['article_url'] = article_url.encode('utf-8')  
  38.   
  39.         yield item  
  40.   
  41.         #獲得下一篇文章的url  
  42.         urls = sel.xpath('//li[@class="next_article"]/a/@href').extract()  
  43.         for url in urls:  
  44.             print url  
  45.             url = "http://blog.csdn.net" + url  
  46.             print url  
  47.             yield Request(url, callback=self.parse)  

 

 

慢慢分析:

 

(1)download_delay參數設置為1,將下載器下載下一個頁面前的等待時間設置為1s,也是防止被ban的策略之一。主要是減輕服務器端負載。

(2)從response中抽取文章鏈接與文章題目,編碼為utf-8。注意yield的使用。

(3)抽取“下一篇”的url,由於抽取后缺少http://blog.csdn.NET部分,所以補充。兩個print只為調試,無實際意義。重點在於

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. yield Request(url, callback=self.parse)  

也就是將新獲取的request返回給引擎,實現繼續循環。也就實現了“自動下一網頁的爬取”。

 

五. 執行

 

[python]  view plain  copy
 
 在CODE上查看代碼片派生到我的代碼片
  1. scrapy crawl CSDNBlog  


部分存儲數據截圖:

 

轉載自:http://blog.csdn.net/u012150179/article/details/34486677


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM