滲透利器-kali工具 (第二章-3) 信息收集之子域名掃描 -Sublist3


本文內容:

  • 子域名收集的作用
  • 收集子域名的方法
  • robots.txt文件的作用

 

從幾個維度來收集子域名。

1,子域名收集的作用:
  1.擴大滲透測試范圍

  2.找到目標站點的突破口

  3.業務邊界安全

  子域名收集盲區:

    子域名打開就是404頁面、403頁面,怎么做,

    案例分析:https://nosec.org/home/detail/2011.html

2,收集子域名的方法:

  1.在線收集子域名:
    谷歌語法:
      通過特定站點范圍查詢子域:site:qq.com

    在線爆破:

      在線枚舉爆破:http://z.zcjun.com/

    證書搜索:

      基於SSL證書查詢子域:https://crt.sh/

    DNS搜索:

      基於DNS記錄查詢子域:https://dns.bufferover.run/dns?q=

  2.Fuzzdomain工具

    使用gitub下載相應的子域發現工具

    使用此命令下載:

      git clone https://github.com/aboul3la/Sublist3r

    安裝模塊:

      sudo pip install -r requirements.txt

    枚舉目標子域:

      python sublist3r.py -d xxx.cn

    枚舉子域並且顯示開放80和443端口的子域

      python sublist3r.py -d xxx.cn -p 80,443

    枚舉目標子域並保存

      Python shublist3r.py -d xxx.cn -o xxx.txt

  3.用戶事件:

    通過目標站點用戶事件找到子域以及敏感信息

    1.歷史漏洞:

      烏雲鏡像站:http://www.anquan.us/

    2.使用手冊、通知:

      舉例:某學院通知:https://dwz.cn/OOWeYYy6

3,robots.txt文件的作用:
  robots協議[爬蟲協議、機器人協議等]:

    全稱是:網絡爬蟲排除標准,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。

  robots.txt文件的重要性:

    robots.txt是搜索引擎蜘蛛訪問網站時要查看的第一個文件,並且會根據robots.txt文件的內容來爬行網站。

    在某種意義上說,它的一個任務就是指導蜘蛛爬行,減少搜索引擎蜘蛛的工作量。

  robots.txt文件的存放位置:

    網站根目錄下,通過"域名/robots.txt"能正常訪問即可。

    如:http://xxx.cn/robots.txt

    寫法:https://baijiahao.baidu.com/s?id=1616368344109675728&wfr=spider&for=pc


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM