AWVS介紹


1.1什么是AWVS(Acunetix Web Vulnarability Scanner)

  是一款知名的網絡漏洞掃描工具,它通過網絡爬蟲測試你的網站安全,檢測流行安全漏洞

1.2功能以及特點:

  • 自動的客戶端腳本分析器,允許對 Ajax 和 Web 2.0 應用程序進行安全性測試。
  • 業內最先進且深入的 SQL 注入和跨站腳本測試
  • 高級滲透測試工具,例如 HTTP Editor 和 HTTP Fuzzer
  • 可視化宏記錄器幫助您輕松測試 web 表格和受密碼保護的區域
  • 支持含有 CAPTHCA 的頁面,單個開始指令和 Two Factor(雙因素)驗證機制
  • 豐富的報告功能,包括 VISA PCI 依從性報告
  • 高速的多線程掃描器輕松檢索成千上萬個頁面
  • 智能爬行程序檢測 web 服務器類型和應用程序語言
  • Acunetix 檢索並分析網站,包括 flash 內容、SOAP 和 AJAX
  • 端口掃描 web 服務器並對在服務器上運行的網絡服務執行安全檢查
  • 可導出網站漏洞文件

 1.3.AWVS界面介紹:

AWVS的界面主要分為六個部分,分別是:標題欄菜單欄工具欄主要操作區域主界面狀態區域

 

 

----詳細介紹:

 

AWVS的菜單欄,工具欄簡介:

u 菜單欄

File——New——Web Site Scan :新建一次網站掃描

File——New——Web Site Crawl:新建一次網站爬行

File——New——Web Services Scan:新建一個WSDL掃描

Load Scan Results:加載一個掃描結果

Sava Scan Results:保存一個掃描結果

Exit:退出程序

Tools:參考主要操作區域的tools

Configuration——Application Settings:程序設置

Configuration——Scan Settings:掃描設置

Configuration——Scanning Profiles:側重掃描的設置

Help——Check for Updates:檢查更新

Help——Application Directories——Data Directory:數據目錄

Help——Application Directories——User Directory:用戶目錄

Help——Application Directories——Scheduler Sava  Directory:計划任務保存目錄

Help——Schedule Wen Interface:打開WEB形式計划任務掃描處

Help——Update  License:更新AWVS的許可信息

Help——Acunetix Support——User Mannul(html):用戶HTML版手冊

Help——Acunetix Support——User Mannul(PDF):用戶PDF版手冊

Help——Acunetix Support——Acunetix home page:AWVS官網

Help——Acunetix Support——HTTP Status:HTTP狀態碼簡介

 

1.4 AWVS基本功能介紹

1.4.1 AWVS的蜘蛛爬蟲功能

Site Crawler

 
點擊Start對所輸入的URL進行爬取,但是有的頁面需要登錄,不登錄有些文件爬不到,就可以選擇可以登錄的login sequence進行登錄(login sequence在處Application Settings處詳細說明),爬網結果可以保存為cwl文件,以便后續站點掃描使用。
 

1.4.2 AWVS目標探測工具

Target Finder

相當於一款加強版(針對WEB滲透測試)的端口、banner探測工具功能:

1、探測指定IP/IP段開放特定端口的IP

2、探測出IP后,探測該端口的banner信息,可探測出該端口上運行的WEB服務的中間件的版本信息

3.可以指定IP地址段進行端口掃描(類似於Nmap),可以用與信息收集。 

4.進行了端口掃描后會進行服務發現,得到端口上對應的服務。

 
 
1.4.3 AWVS的子域名探測工具

Subdomain Scanner

用DNS進行域名解析,找域名下的子域及其主機名(用於信息收集)

可選擇使用操作系統默認配置的DNS服務器或自定義的一個DNS服務器(谷歌:8.8.8.8)

1.4.4 AWVS的HTTP嗅探工具

HTTP Sniffer

和BP proxy類似,首先要設置代理(Application Settings->HTTP Sniffer),截取數據包,修改數據包提交或者丟棄。

利用代理功能進行手動爬網(保存為slg文件,在Site Crawler頁面點擊Build structure from HTTP sniffer log),得到自動爬網爬取不到的文件。

1.4.5 AWVS的HTTP模糊測試工具

HTTP Fuzzer

類似於BP intruder,進行暴力破解,點擊+選擇類型,點擊insert插入。

注意:插入字母的時候選取字母的范圍填寫的是字母對應的ASCII碼。

 
1.5 AWVS基本操作—站點掃描(重點)
第一步Scan Type:
首先選擇圖中的第一個紅框New Scan,然后在彈出的窗口中選擇圖中的第二個紅框,在輸入框里邊輸入將要檢測的目標網站的URL,然后點擊下邊的Next即可。籃框是我們要額外講的,這個的內容就是說如果我們之前曾經使用爬蟲爬過目標網站,我們就可以使用藍框來加載保存的文件繼續爬行,不過這個實驗因為我們是第一次爬行這個網站,所以並不需要使用這個。
 
第二步:這個界面是讓我們選擇攻擊模塊的,可以根據不同的攻擊要求,選擇不同的攻擊模塊,這里我們選擇Default(默認),使用默認模塊即可
 

awvs一共有提供16種攻擊模塊,如下表:

Defalut默認,全部檢測

AcuSensorAcunetix傳感器機制,可提升漏洞審查能力,需要在網站上安裝文件,目前針對ASP.NET/PHP

Blind SQL InjertionSQL盲注檢測

CSRF檢測跨站請求偽造

Directory_And_File_Checks目錄與文件檢測

Empty不使用任何檢測

GHDB利用Google hacking數據庫檢測

High Risk Alerts高風險警告

Network Scripts網絡腳本檢測

Parameter   Manipulations參數操作

Sql InjectionSQL注入檢測

Text Search文本搜索

Weak Passwords檢測弱口令

Web Applicationsweb應用檢測

XSS跨站請求偽造

File Upload檢測文件上傳漏洞

如果想要調整或修改攻擊模塊,根據路徑Configuration >> Scanning Profiles修改,如圖
 
 
 

 

第三步:

awvs會自動識別被檢測站點的信息,在這個頁面顯示出來,還可以選擇目標網站的腳本語言,如果不知道,可以不選擇,直接點擊下一步即可。

  • 其中target information中的內容是:
  • base path:掃描目標的根路徑
  • server banner:服務的banner
  • target URL:目標url
  • operating system:目標操作系統
  •  webserver:目標的web服務器

 

第四步:

 

根據需求,可以錄入或者填寫登錄信息,如果沒有的話,直接按照默認設置,然后點擊“Next”

PS:如果網站需要登錄,則需要提供登錄信息,否則有些需要登錄才能操作的頁面就無法探測到。

1) Use pre-recorded login sequence選項,第一個紅圈:

黃色圈內:可直接打開AWVS的內置瀏覽器,錄制登錄被測網站的腳本

藍色圈內:可導入已經錄制好的登錄腳本

2) Try to auto-login into the site選項,第二個紅圈:

可直接輸入登錄網站所需的賬戶名和密碼,然后AWVS用自動探測技術進行識別,不需要手工錄入登錄過程。

這里因為我們將要訪問的網站是不需要直接登錄就能訪問的網站,所以這里就不在細說。

 

第五步:

 

直接點擊Finish即可。之后awvs就會對目標網站進行掃描,然后需要耐心等待掃描完成。

 

 

1.5 使用awvs檢測掃描結果

1.1.1查看掃描結果

創建的掃描項目“www.any.com”的掃描結果。因為目標網站太大,所以要完全掃描完成需要較長的時間,所以這次就先在掃到10%的時候暫停,使用已經掃描得到的結果檢測網站的漏洞。暫停按鈕在界面的右上方的Pause(暫停),圖片上是已經點擊暫停之后的界面,所以顯示的是Resume(繼續)。
在成功暫停之后,可以看到,一共分為了三個板塊,左邊紅框框起來的是已經發現的漏洞詳情,右側上方紅框框起來的是發現的高中低危漏洞以及無關緊要的信息。通過顏色也可以看出來,高危漏洞是紅色的,中危漏洞是黃色的,低危漏洞是藍色的,而綠色的是危害很小的信息。右側下方中划紅線的是掃描進度,可以看出來我們這次掃描只進行了10.23%就結束了。
 
 
 
1.1.2檢測掃描結果

驗證漏洞:我們隨便點開一個漏洞,然后將划紅線的寫入瀏覽器的url中,可以看到,在錯誤信息中,該系統使用的數據庫與數據表的名字泄露了,而這些本來應該是非常機密的信息。

 
 
查看掃描出的網站結構:如下圖,隨便找一個普通的網站信息,比如說選擇site struckure→/→member→index.php,選擇第一個,點擊之后,可以看到右邊欄里出現的信息,能看到第二行page title的內容是“白露的空間”,初步推測這是一個用戶的個人空間,從第五行顯示的返回的狀態碼200推斷是可以登錄的,所以,復制第四行的URL,然后呢進入瀏覽器,將復制的URL粘貼進地址欄。
 
 
下圖可以看到,通過在地址欄輸入URL之后,就可以直接進入用戶“白露”的空間,並不需要進行登錄的操作。
 
 
1.5.3 保存掃描結果
在掃描完成后(必須是掃描全部完成后,才可以保存掃描結果。因為目標網站實在太大,掃描用時過長,同學們可以選擇新建對www.any.com/2.php進行掃描,很快就可以掃描完成,然后就可以針對這次掃描保存掃描結果,在本節課的圖片中我使用的還是www.any.com這個網站),選擇File→Save Scan Results
 
輸入文件名稱后,選擇保存即可
 
 
1.5.4 導出掃描報告
 
在掃描完成后,找到工具欄里的report
 
然后就會出現掃描報告的預覽圖,其中紅色框起來的位置就是掃描報告的預覽圖,選擇保存按鈕進行保存
 
輸入文件名稱后,選擇保存即可.
 
拓展:

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM