Python實現采集wordpress整站數據的爬蟲


最近愛上了python,就非常喜歡使用python來練手,在上次的基礎上完善一下代碼,實現采集wordpress程序的網站的整站數據的爬蟲程序,本站也是采用的wordpress,我就拿吾八哥網(http://www.5bug.wang/)來練手了!簡單分析下這個爬蟲的思路,從首頁開始,抓取href標簽,到子頁面后還是要繼續找href標簽,那么很容易想到要用到遞歸了,直接貼代碼吧!寫了點簡單的注釋,如下:

import re
import bs4
import urllib.request

url_home = 'http://www.5bug.wang/'  #要采集的網站
url_pattern = url_home + '([\s\S]*)\.html' #正則表達式匹配文章頁面,此處需完善為更好的寫法
url_set = set()
url_cache = set()
url_count = 0
url_maxCount = 1000  #最大采集數量

#采集匹配文章內容的href標簽
def spiderURL(url, pattern):
    html = urllib.request.urlopen(url).read().decode('utf8')
    soup = bs4.BeautifulSoup(html, 'html.parser')
    links = soup.find_all('a', href = re.compile(pattern))
    for link in links:
        if link['href'] not in url_cache:
            url_set.add(link['href'])
    return soup

#采集的過程  異常處理還需要完善,對於一些加了防采集的站,還需要處理header的,下次我們再學習
spiderURL(url_home, url_pattern)

while len(url_set) != 0:
    try:
        url = url_set.pop()
        url_cache.add(url)
        soup = spiderURL(url, url_pattern)
        page = soup.find('div', {'class':'content'})

        title = page.find('h1').get_text()
        autor = page.find('h4').get_text()
        content = page.find('article').get_text()

        print(title, autor, url)
    except Exception as e:
        print(url, e)
        continue
    else:
        url_count += 1
    finally:
        if url_count == url_maxCount:
            break

print('一共采集了: ' + str(url_count) + ' 條數據')

  


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM