多線程爬取小說時如何保證章節的順序


前言


 

爬取小說時,以每一個章節為一個線程進行爬取,如果不加以控制的話,保存的時候各個章節之間的順序會亂掉。

當然,這里說的是一本小說保存為單個txt文件,如果以每個章節為一個txt文件,自然不會存在這種情況。

不僅僅是小說,一些其他的數據在多線程爬取時也有類似情況,比如:

  1. 漫畫:漫畫其實是由大量圖片組成,一般一本漫畫會保存為一個pdf文件,在此過程要保證圖片的順序。
  2. 視頻:現在網絡上的視頻大部分是由多個ts文件拼合,最后保存為一個mp4文件,要保證ts文件的順序。

它們都有一個共同的特點,那就是:爬取目標時有多個鏈接,但保存后卻只有一個文件,且無法在保存完畢后進行二次排序。

單線程時,這一類文件的爬取不會出現任何問題;

多線程時,因為爬取順序的不確定性,導致保存的順序紊亂。

 

 解決方案


 

問題的根本原因在於:因為爬取和保存的一致性,混亂的爬取順序使得保存順序也變得混亂。

解決方案:將爬取過程和保存過程分離,多線程爬取數據,但按順序保存數據。

比如一本小說,在爬取章節的過程中可以使用多線程,但不要在爬取之后立即保存,等待時機,精准寫入。

那這個時機是什么呢?

可以在爬取章節的過程中,給每個章節一個帶序號的標記,這個序號即小說章節的序號;保存時,從序號0開始保存,記錄這一個序號,再檢測當前爬取的章節中有沒有比記錄的序號剛好大於1的(大於1相當於下一個章節),有就寫入,沒有就等待。

具體過程:

  1. 爬取目錄頁,抽取出所有的章節鏈接。
  2. 將所有待爬取的鏈接扔到一個隊列里面去,同時給每個鏈接一個標記。
  3. 開5個線程,不斷地從隊列里面拿鏈接進行爬取。
  4. 單個章節爬取之后,讓爬取這個鏈接的線程阻塞。
  5. 申明一個成員變量,表示保存的章節序號,從-1開始
  6. 當前線程的鏈接標記是否剛好比章節序號大於1,是就保存,不是就繼續阻塞
  7. 因為是從隊列中取數據,就能夠保證這5個章節是還沒有被爬取的前5個章節

 

具體實現


 

爬蟲代碼用的python實現,自定義的線程類,這里以http://www.booktxt.net/8_8455/爬取為例。

代碼如下:

import requests
from lxml import etree
from threading import Thread
from queue import Queue


class MyThread(Thread):
    def __init__(self, q):
        Thread.__init__(self)
        self.q = q

    def run(self):
        global index
        while not self.q.empty():
            data = self.q.get()
            url = root + ''.join(data[1])
            response = requests.get(url, headers=headers)
            page = etree.HTML(response.content)

            chapter = page.xpath("//h1/text()")
            chapter = ''.join(chapter)
            print("爬取 -> %s" % chapter,index)

            content = page.xpath("//div[@id='content']/text()")
            content = '\n'.join(content)
            content = content.replace("\xa0\xa0\xa0\xa0", "\t")

            # 如果當前標記比保存的小說章節序號大於1,阻塞
            while data[0] > index + 1:
                pass

            # 剛好大於1時,通過,保存章節
            if data[0] == index + 1:
                print("保存 -> %s" % chapter,index)
                f.write('\n' + chapter + '\n')
                f.write(content)
                index += 1


if __name__ == '__main__':
    root = "http://www.booktxt.net/8_8455/"
    headers = {
        'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'
    }
    
    index = -1  # 章節標記,表示保存的章數
    
    response = requests.get(root, headers=headers)
    page = etree.HTML(response.content)
    title = ''.join(page.xpath("//h1/text()"))      # 小說名
    print(title)

    with open("%s.txt" % title, 'w', encoding='utf8') as f:
        f.write(title)      # 先寫入小說名
        hrefs = page.xpath("//div[@id='list']/dl/dt[2]/following-sibling::dd/a/@href")
        q = Queue()
        for i,href in enumerate(hrefs):
            q.put((i,href))

        ts = []
        for i in range(5):
            t = MyThread(q)
            t.start()
            ts.append(t)
        for t in ts:
            t.join()

代碼整體上並不復雜,用的也是requests+lxml的經典組合,主要是隊列數據寫入和線程阻塞那里,能夠理解整個也就不難了。

 

總結


 

該說的也都說了,最后說一句:

如果是鍛煉技術的話可以多線程爬這玩玩,但如果要寫全網爬蟲,還是寫個單線程吧,尤其是在自己時間足夠充裕的情況下,畢竟人家租個服務器也不容易。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM