AWVS批量匯入網站(刷漏洞入門)
今天整了一天這個AWVS批量掃描指令碼,主要是下了好幾個版本的AWVS,都不穩定,一次次刪除又一次次安裝。
做這件事兒目的就是為了批量刷漏洞,不過弄好之後又不打算刷漏洞了,不太喜歡無腦刷漏洞,沒什麼意義,並且現在水平也不是很高,先踏實學習吧。
這個文章目的就是記錄一下整體的思路。
要想較為高效的刷漏洞(這裡指的是和菜鳥相比),需要兩部,一 : 獲取大量的網頁連結 ; 二 : 誤報率低,比較牛逼一點的漏洞掃描工具
一 :獲取大量的網頁連結
這個有三種方法:
① fofa 這個有前提 ,必須得有 fofa 的會員,直接下載工具 輸入 賬號 和 key 即可批量導,軟體直接在 github 下載就行
https://github.com/tangxiaofeng7/Fofa-collect/releases/tag/V1.0
② 利用crawlergo工具,
這個工具 功能就是能爬取 你匯入好的txt檔案中 每個連結中 原始碼的 連結
這個工具的原理就是爬蟲,開啟多個chrom一起爬,(這個chrom不是咱們用的那個谷歌瀏覽器,只是名字差不多)
這個工具如果和 xray 聯動 ,那就比較完美 ,這個工具可以設定代理 ,流量先通過 xray 最後在放出去,實現了被動掃描。具體詳情可以看 我寫的文章 在分類中的 xray和crawlergo聯動
https://github.com/0Kee-Team/crawlergo
這個是crawlergo在github中的下載連結,裡面也有 crawlergo 使用說明
③ 這種方法就比較普通了,就是使用 layer 子域名挖掘機去一個個挖掘,不太推薦這種方法,layer掃出來的網站質量一般
二 : 選一款牛批的漏洞掃描工具
常見的漏洞掃描工具無非就是 AWVS ,appscan ,OWAsp ,xray 等等 ,因為以前用awvs感覺不錯,所以這次也選的 awvs (沒想到坑死我。。。)
網上許多的 awvs破解版都不太穩定,要不就是沒 api,要不就是使會兒就不行了,現在是2020.7.24 實測下面這款比較不錯,有需要的可以下載
https://www.sqlsec.com/2020/04/awvs.html
下載完了之後按照步驟破解安裝就行
AWVS這裡有個小缺點就是隻支援批量匯入 csv 檔案,這就有點xx,幾百上千個網站,我總不能一個個匯入,於是就在網上找了半天批量匯入的指令碼,還好,試了幾個之後就找到了個合適的,
直接把文章連結放出來 https://www.imzzj.com/2020/05/18/shi-yong-python-gei-awvs13-pi-liang-tian-jia-ren-wu.html 順便感謝下博主,給了我很大幫助!!
這裡需要提示一點的就是 使用 pycharm開啟的時候,import 匯入包兒那塊兒會報一些錯誤,也沒明白是啥情況,反正我給改對了,直接貼出來前部分的程式碼
import requests
import json
import requests.packages
import urllib3.packages
from urllib3.exceptions import InsecureRequestWarning
# from requests.packages.urllib3.exceptions import InsecureRequestWarning
# requests.packages.urllib3.disable_warnings(InsecureRequestWarning) 這個會報錯,不知道是pycharm的問題還是怎麼回事,我直接給註釋了,直接匯入的包兒
urllib3.disable_warnings(InsecureRequestWarning)
apikey = '1986ad8c0a5b3df4d7028d5f3c06e936cba6b6c40d1914c51b15d120bf015197e'
# 去 AWVS 配置檔案裡面 有個 API KEY 複製填進去就行
apikey = str(apikey)
headers = {'Content-Type': 'application/json',"X-Auth": apikey}
def addTask(url,target):
try:
url = ''.join((url, '/api/v1/targets/add'))
data = {"targets":[{"address": target,"description":""}],"groups":[]}
r = requests.post(url, headers=headers, data=json.dumps(data), timeout=30, verify=False)
result = json.loads(r.content.decode())
return result['targets'][0]['target_id']
except Exception as e:
return e
使用說明就是 先更改配置 ,新增api_key ; 把需要掃描的站點放在 url.txt 中 ; 執行awvs.py ; 顯示 XXX 匯入成功;開啟awvs,可以看到站點新增成功,直接就開始自動掃描了
最後嗶嗶一句,不知道為啥,AWVS誤報率有些高,沒太仔細看,也沒準是我的問題,等真正投入到挖漏洞的時候在研究吧。