Python爬取招聘網信息


1、數據來源:職友集

2、代碼

import requests
import openpyxl
import time
from bs4 import BeautifulSoup #用於解析和提取網頁數據的
lst=[]#列表
def send_request(id,page):
    url = 'https://www.jobui.com/company/{0}/jobs/p{1}/'.format(id,page)
    headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0'}  # 創建頭部信息
    resp = requests.get(url, headers=headers)
    return resp.text
#進行數據的提取
def parse_html(html):
    bs=BeautifulSoup(html,'html.parser') #得到Bea--的對象了
    job_lst=bs.find_all('div',class_='c-job-list')#因為class是關鍵字,所以加一個下划線
    #print(job_lst)
    for item in job_lst: #分別遍歷每一個職位數據
        name=item.find('h3').text#職位的名稱
        div_tag=item.find('div',class_='job-desc')
        #print(div_tag)
        span_tag=div_tag.find_all('span')
        #print(span_tag[0].text)
        url=item.find('a',class_='job-name')['href']#提取class樣式為job-name的a標簽,獲取屬性href的值
        lst.append([name,span_tag[0].text,span_tag[1].text,'https://www.jobui.com'+url])
#存儲excel
def save(lst):
    wk = openpyxl.Workbook()
    sheet = wk.active
    for item in lst:
        sheet.append(item)
    wk.save('招聘信息.xlsx')
#啟動爬蟲程序
def start(id,pages):
    for page in range(1,pages+1):
        resp_data=send_request(id,page)
        parse_html(resp_data)
        time.sleep(2)
    save(lst)

if __name__=='__main__':
    id='10375749'
    pages=1
    start(id,pages)
zhiyou.py

3、結果

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM