一.源碼
def __init__(self, url, callback=None, method='GET', headers=None, body=None,
cookies=None, meta=None, encoding='utf-8', priority=0,
dont_filter=False, errback=None, flags=None):
一.url(必須)
填寫的參數:請求的地址
數據類型:str
二.callback
填寫的參數:響應返回的回調函數(必須是類當中或者父類當中的方法),默認為parse方法
數據類型:str
三.method
填寫的參數:請求的方式
數據類型:str
四.headers
填寫的參數:請求頭
數據類型:dict
五.meta
填寫的參數:我是這樣理解的理解成傳輸時候一個類似容器的東西
數據類型:dict
取response.meta['key']可以獲得設置的value
六.dont_filter
填寫的參數:表明該請求不由調度器過濾。這是當你想使用多次執行相同的請求,忽略重復的過濾器。默認為False.
數據類型:bool
七.encoding
填寫的參數:編碼格式
數據類型:str
八.errback
填寫的參數:響應返回的錯誤的回調函數(必須是類當中或者父類當中的方法)默認返回'dealerr'方法
數據類型:dict
九.body補充點post參數提交
方法一.
scrapy.FormRequest(url=url,formdata=formdata)
#這里的formdata是dict格式的,里面不能存在數字,如果有數字用引號括起來;
方法二.
scrapy.Request(url=url,method="POST",body=formdata)
#這里的formdata必須得是字符串,如果是表單格式,那么需要用json.dumps()轉為字符串格式;
十.priority和flags(我沒怎么用資料都是網上的)
priority是優先級,(默認為0,越大優先級越大),實際應用中我沒用過.
flags網上說指針,我沒怎么用,也沒深究,如果有知道的人歡迎補充
