實戰場景
使用safe3wvs掃描,掃描完成后會在當前目錄下生成一個日志文件spider.log,截圖如下。
現要求將存在sql注入的url地址整理到spider_new.log文件中,下面分享一個自己用python編寫的腳本:
#coding:utf-8 with open('spider.log','r') as fr: for line in fr.readlines(): if 'sql' in line: with open('spider_new.log','a') as fw: fw.write(line.split(' ')[0]+'\n')
執行結果: