AWVS聯動Xray
使用AWVS爬蟲功能,批量爬取目標鏈接,聯動XRAY進行被動掃描
參考鏈接:
https://github.com/test502git/awvs13_batch_py3
crawler聯動Xray
https://github.com/timwhitez/crawlergo_x_XRAY
fofa2Xray
https://github.com/piaolin/fofa2Xray/blob/master/README_ZH.md
https://github.com/Miagz/XrayFofa
被動_社區版xray與rad深度融合
社區版:設置上級代理為xray監聽地址 運行xray:
xray webscan --listen 127.0.0.1:7777 --html-output proxy.html
運行rad:
rad -t http://example.com -http-proxy 127.0.0.1:7777
高級版xray(對 rad 進行了深度融合),下載后可以一鍵使用:
xray webscan --browser-crawler http://example.com --html-output vuln.html
xray批量掃描url
參考鏈接:
https://blog.csdn.net/qq_42404383/article/details/111304466
白嫖參考代碼:
#author: 想學點black技術
#用法: 在bat.py的同目錄下生成xray_url.txt,根據自己的需求更改scan_command即可
#time: 2020年12月16日20:27:40
#環境: python3
#說明: command中的xray路徑需要手動修改,報告生成的位置在同一目錄下
import os
import hashlib
import re
# 掃描
def get_url():
f = open("xray_url.txt")
lines = f.readlines()
# 匹配http | https請求頭
pattern = re.compile(r'^(https|http)://')
for line in lines:
try:
if not pattern.match(line.strip()):
targeturl="http://"+line.strip()
else:
targeturl=line.strip()
# print(targeturl.strip())
outputfilename=hashlib.md5(targeturl.encode("utf-8"))
do_scan(targeturl.strip(), outputfilename.hexdigest())
except Exception as e:
print(e)
pass
f.close()
print("Xray Scan End~")
return
# 報告
def do_scan(targeturl,outputfilename="test"):
scan_command="E:/tools/xray_windows_amd64.exe/xray.exe webscan --basic-crawler {} --html-output {}.html".format(targeturl,outputfilename)
# scan_command = "ping 943ogg.dnslog.cn"
# print(scan_command)
os.system(scan_command)
return
if __name__ == '__main__':
get_url()