spider (蜘蛛,這里的意思指爬行)
像蜘蛛一樣在網站上爬行出網站的個個目錄信息,並發送至Target。
1.Control(控制)
Spider is paused :停止蜘蛛爬行
Clear queues: 清除列隊
2. Options(選項)
設置這些控制方式蜘蛛爬行基本web內容
1.檢測是否存在robots.txt
2.檢測自定義"未找到"響應(404)
3.胡羅非文本內容的鏈接
4.請求所有目錄的根
Maximum link depth: 爬行多少級的網站目錄
當你的網站包含不希望被搜索引擎收錄的內容時,需要使用roobots.txt文件。如果你希望搜索引擎收錄網站上的所有內容,請勿建立roboxt.txt
爬行時 遇到 表單,則可以在這里輸入賬號密碼,登錄成功繼續爬行后台頁面。
Number of threads :設置請求線程。控制並發請求數。一般小型網站為3 中型為10.
Number of retries on network failure: 如果出現連接錯誤或其他網絡問題,Burp會嘗試重新請求。
Pause before retry :當重試失敗的請求,Burp會等待指定的時間(以毫秒為單位)以下,然后重試失敗。如果服務器宕機,繁忙,或間歇性的問題發生,最好是等待很短的時間,然后重試。
Throttle between requests:在每次請求之前等待一個指定的延遲(以毫秒為單位)。此選項很有用,以避免超載應用程序,或者是更隱蔽。
自定義設置 請求頭