本文內容:
- 子域名收集的作用
- 收集子域名的方法
- robots.txt文件的作用
從幾個維度來收集子域名。
1,子域名收集的作用:
1.擴大滲透測試范圍
2.找到目標站點的突破口
3.業務邊界安全
子域名收集盲區:
子域名打開就是404頁面、403頁面,怎么做,
案例分析:https://nosec.org/home/detail/2011.html
2,收集子域名的方法:
1.在線收集子域名:
谷歌語法:
通過特定站點范圍查詢子域:site:qq.com
在線爆破:
在線枚舉爆破:http://z.zcjun.com/
證書搜索:
基於SSL證書查詢子域:https://crt.sh/
DNS搜索:
基於DNS記錄查詢子域:https://dns.bufferover.run/dns?q=
2.Fuzzdomain工具
使用gitub下載相應的子域發現工具
使用此命令下載:
git clone https://github.com/aboul3la/Sublist3r
安裝模塊:
sudo pip install -r requirements.txt
枚舉目標子域:
python sublist3r.py -d xxx.cn
枚舉子域並且顯示開放80和443端口的子域
python sublist3r.py -d xxx.cn -p 80,443
枚舉目標子域並保存
Python shublist3r.py -d xxx.cn -o xxx.txt
3.用戶事件:
通過目標站點用戶事件找到子域以及敏感信息
1.歷史漏洞:
烏雲鏡像站:http://www.anquan.us/
2.使用手冊、通知:
舉例:某學院通知:https://dwz.cn/OOWeYYy6
3,robots.txt文件的作用:
robots協議[爬蟲協議、機器人協議等]:
全稱是:網絡爬蟲排除標准,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。
robots.txt文件的重要性:
robots.txt是搜索引擎蜘蛛訪問網站時要查看的第一個文件,並且會根據robots.txt文件的內容來爬行網站。
在某種意義上說,它的一個任務就是指導蜘蛛爬行,減少搜索引擎蜘蛛的工作量。
robots.txt文件的存放位置:
網站根目錄下,通過"域名/robots.txt"能正常訪問即可。
如:http://xxx.cn/robots.txt
寫法:https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc
