burp suite之spider(爬蟲)


spider (蜘蛛,這里的意思指爬行)

像蜘蛛一樣在網站上爬行出網站的個個目錄信息,並發送至Target。

1.Control(控制)

 

 

Spider is paused :停止蜘蛛爬行

Clear queues: 清除列隊

 

2. Options(選項)

設置這些控制方式蜘蛛爬行基本web內容

 1.檢測是否存在robots.txt

 

 2.檢測自定義"未找到"響應(404)

 

 3.胡羅非文本內容的鏈接

 

 4.請求所有目錄的根

 

Maximum link depth: 爬行多少級的網站目錄

 

 

 

 

 

 

當你的網站包含不希望被搜索引擎收錄的內容時,需要使用roobots.txt文件。如果你希望搜索引擎收錄網站上的所有內容,請勿建立roboxt.txt

爬行時 遇到 表單,則可以在這里輸入賬號密碼,登錄成功繼續爬行后台頁面。

 

 

 

 

Number of threads :設置請求線程。控制並發請求數。一般小型網站為3  中型為10.

Number of retries on network failure: 如果出現連接錯誤或其他網絡問題,Burp會嘗試重新請求。

Pause before retry :當重試失敗的請求,Burp會等待指定的時間(以毫秒為單位)以下,然后重試失敗。如果服務器宕機,繁忙,或間歇性的問題發生,最好是等待很短的時間,然后重試。

Throttle between requests:在每次請求之前等待一個指定的延遲(以毫秒為單位)。此選項很有用,以避免超載應用程序,或者是更隱蔽。

 

 

 

 

 自定義設置 請求頭

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM