1. 程式人生 > >jmeter-結果分析

jmeter-結果分析



一、Listener的使用

1.聚合報告

通過這份報告我們就可以得到通常意義上效能測試我們所最關心的幾個結果了。

Samples -- 本次場景中一共完成了多少個Transaction

Average -- 平均響應時間

Median -- 統計意義上面的響應時間的中值

90% Line -- 所有transaction中90%的transaction的響應時間都小於xx

Min -- 最小響應時間

Max -- 最大響應時間

PS: 以上時間的單位均為ms

Error -- 出錯率

Troughput -- 吞吐量,單位:transaction/sec

KB/sec -- 以流量做衡量的吞吐量

2.檢視結果樹

通過這個Listener,我們可以看到上圖很詳細的每個transaction它所返回的結果,其中紅色是指出錯的transaction,綠色則為通過

如果你測試的場景會有很多的transaction完成,建議在這個Listener中僅記錄出錯的transaction就可以了。要做到這樣,你只需要將Log/Display:中的Errors勾中就可以了,如圖:

二、.jtl檔案的分析

在效能測試過程中,我們往往需要將測試結果儲存在一個檔案當中,這樣既可以儲存測試結果,也可以為日後的效能測試報告提供更多的素材。

Jmeter中,結果都存放在.jtl檔案。這個.jtl檔案可以提供多種格式的編寫,而一般我們都是將其以csv檔案格式記錄,這樣做是因為csv檔案格式看起來比較方便,更重要的是這樣做可以為二次分析提供很多便利。

我這裡所說的二次分析是指除了使用Listener之外,我們還可以對.jtl檔案進行再次分析。

a.設定jtl檔案格式

我們從jmeter官方網站中下載下來的Jmeter解壓後是可以直接使用的。但是,使用預設配置生成的jtl檔案內容並不能滿足我們的需要。於是我們必須進行必要的設定。在2.2版本中,如果要修改jtl設定必須要到jmeter.properties檔案中設定;但是在2.3版本中,我們只需要在介面上設定就可以了。你只需要選擇某個Listener,點選頁面中的configure按鈕。此時,一個設定介面就會彈出來,建議多勾選如下項:Save Field Name,Save Assertion Failure Message。

b.jtl檔案中的各項

經過了以上設定,此時儲存下來的jtl檔案會有如下項:

timeStamp,elapsed,label,responseCode,responseMessage,threadName,dataType,success,failureMessage,bytes,Latency

請求發出的絕對時間,響應時間,請求的標籤,返回碼,返回訊息,請求所屬的執行緒,資料型別,是否成功,失敗資訊,位元組,響應時間

其中聚合報告中的,吞吐量=完成的transaction數/完成這些transaction數所需要的時間;平均響應時間=所有響應時間的總和/完成的transaction數;失敗率=失敗的個數/transaction數

溫馨提示:在jmeter2.2和2.3版本中,都存在的一個問題是當我們重新開啟jmeter,使用某個Listener來檢視jtl檔案時,jmeter是會報錯的。因此當你使用命令列方式完成了一個場景的測試後,你得到的只是一堆儲存在jtl檔案中的原始資料。所以知道聚合報告中的各項的來源是可以方便大家擺脫測試工具來進行結果的分析。

總的來說,對於jmeter的結果分析,主要就是對jtl檔案中原始資料的整理,我是使用一些小指令碼進行相關的分析的,不知道你打算怎麼做呢?

反正實踐後,你總能找到一條屬於自己的資料分析之路。

測試結果的分析說明

說明:

Label:每個 JMeter 的 element (例如 HTTP Request )都有一個 Name 屬性,這裡顯示的就是 Name 屬性的值

#Samples:表示你這次測試中一共發出了多少個請求,我的測試計劃模擬 10 個使用者,每個使用者迭代 10 次,因此這裡顯示 100

Average:平均響應時間 —— 預設情況下是單個 Request 的平均響應時間,當使用了 Transaction Controller 時,也可以以 Transaction 為單位顯示平均響應時間

Median:中位數,也就是 50 %使用者的響應時間

90% Line: 90 %使用者的響應時間

Min: 最小響應時間

Max: 最大響應時間

Error%:本次測試中出現錯誤的請求的數量 / 請求的總數

[NextPage]

Throughput:吞吐量 —— 預設情況下表示每秒完成的請求數( Request per Second ),當使用了 Transaction Controller 時,也可以表示類似 LoadRunner 的 Transaction per Second 數

KB/Sec:每秒從伺服器端接收到的資料量,相當於 LoadRunner 中的 Throughput/Sec

一般情況下,當用戶能夠在2秒以內得到響應時,會感覺系統的響應很快;當用戶在2-5秒之間得到響應時,會感覺系統的響應速度還可以;當用戶在5-10秒以內得到響應時,會感覺系統的響應速度很慢,但是還可以接受;而當用戶在超過10秒後仍然無法得到響應時,會感覺系統糟透了,或者認為系統已經失去響應,而選擇離開這個Web站點,或者發起第二次請求。故該系統的使用者資訊查詢資訊頁面的在10到25人併發訪問時,系統響應速度很快,25人到50人併發訪問時速度還可以,50人到100人併發訪問就比較慢了。

相關推薦

jmeter結果分析(圖形報表和聚合報告)

採用Jmeter測試工具對web系統作的負載測試,得出的響應報表,資料比較難懂,現作一具體說明。以下是在一次具體負載測試中得出的具體數值,測試執行緒設定情況為:執行緒數:200,等待時間(ramp-up):0秒,迴圈次數為永遠,另:執行緒組——這些元件用於指定執行的執行緒數和等候週期。每個執行緒模擬一個使用者

jmeter結果分析(監聽器):

結果分析(監聽器): 1.聚合報告 Aggregate Report 是 JMeter 常用的一個 Listener,中文被翻譯為“聚合報告”。今天再次有同行問到這個報告中的各項資料表示什麼意思,順便在這裡公佈一下,以備大家查閱。 如果大家都是做Web應用的效能測試,例如只

jmeter-結果分析

 一、Listener的使用 1.聚合報告 通過這份報告我們就可以得到通常意義上效能測試我們所最關心的幾個結果了。 Samples -- 本次場景中一共完成了多少個Transaction Average -- 平均響應時間 Median -- 統計意義上面的響應時間的

jmeter結果分析詳解

Jmeter測試報表相關引數說明 採用Jmeter測試工具對web系統作的負載測試,得出的響應報表,資料比較難懂,現作一具體說明。 以下是在一次具體負載測試中得出的具體數值,測試執行緒設定情況為:執行緒數:200,等待時間(ramp-up):0秒,迴圈次數為永遠,另:

**jMeter 測試結果分析【轉】**

當我們拿到了jmeter測試結果之後,我們應該如何去看待它們呢?它們又是怎麼來的呢? 一、Listener的使用 用過LoadRunner的人應該都知道,LoadRunner會為我們提供一大堆圖示和曲線。但是在Jmeter裡,我們只能找到幾個可憐的Listene

jmeter-效能測試學習筆記1—結果分析

轉載地址:https://blog.csdn.net/x83853684/article/details/80403190在網上收集了很多jmeter工具做效能測試,但還是不怎麼了解去分析效能測試的結果,然後自己用現在做的專案做了一個簡單的的壓力測試,就是同一時間多個使用者進

Jmeter 測試結果分析之聚合報告簡介

聚合報告(aggregate report) 對於每個請求,它統計響應資訊並提供請求數,平均值,最大,最小值,錯誤率,大約吞吐量(以請求數/秒為單位)和以kb/秒為單位的吞吐量. 吞吐量是以取樣目標點的視角來統計的(例如:HTTP請求樣例中設定的遠端伺服器). JMeter會把已生成請求的總響應時間考慮在

Apache Jmeter 圖形結果分析

1.No of Samples 樣本數目:總共傳送到伺服器的請求數2.Latest Sample  最新樣本:伺服器相應最後一個請求的時間3.Average 平均值:總執行時間除以傳送到伺服器的請求數4

Jmeter測試結果分析(上)

Jmeter測試結果分析這一篇,我打算分成上下兩部分。上篇,主要講述如何使用jmeter中Assertion對結果進行簡單的分類;下篇,主要講述的是當我們拿到測試結果後,我們應該如何去看待這些測試結果。 用過LoadRunner的人都知道,LoadRunner本身提供了很多

Linux下Jmeter+nmon+nmon analyser實現效能監控及結果分析

一、概述   前段時間講述了Jmeter利用外掛PerfMon Metrics Collector來監控壓測過程中伺服器資源的消耗,一個偶然機會,我發現nmon這個 工具挺不錯,和Jmeter外掛比起來,nmon記錄的資訊更加全面一些。   nmon,一款開源效能監控工具,用於監控linux系統的資源消耗資訊

JMeter結果樹響應數據中文亂碼解決辦法

亂碼 sam bin vid ide 編碼 provide nco per encoding編碼 打開apache-jmeter-2.11\bin\jmeter.properties文件,搜索“encoding”關鍵字,找到如下配置: # The encoding to b

nmon結果分析

系統進程 過多 情況 結果 fcm class 抓取 物理 family 用nmon_analyser_hzt.xls等分析工具打開nmon結果文件,假設出現無法載入宏的提示。點擊工具-宏-安全性,將安全及調至低,保存後,又一次打開。 ? Sys_summ頁,為s

Apache ab性能測試結果分析

wait 指定 path name 平均值 connect con ssi ans Apache ab性能測試結果分析   測試場景:模擬10個用戶,對某頁發起總共100次請求。   測試命令: ab -n 100 -c 10 地址   測試報告:     Server

Monkey測試結果分析

次數 lee seed 找到 之間 3.0 cmp flags 間隔 一. 初步分析方法:Monkey測試出現錯誤後,一般的差錯步驟為以下幾步:1、 找到是monkey裏面的哪個地方出錯2、 查看Monkey裏面出錯前的一些事件動作,並手動執行該動作3、 若以上步驟還不能找

性能測試結果分析

應用程序 頁面 比較 方案 insert 可能 運行模式 測試結果分析 同時 最近聽了一個餓了麽大牛的性能壓測實戰分享,並從中總結了性能壓測後結果分析的一些思路,大致如下,僅供參考哦:步驟思路:1、在整個測試場景的執行過程中,測試環境是否正常2、測試場景的設置是否正確、合理

Testlink1.9.17使用方法(第九章 測試結果分析)

測試結果分析 總結 info spa 組件 數據 下載到本地 測試管理 技術 第九章 測試結果分析 QQ交流群:585499566 TestLink根據測試過程中記錄的數據,提供了較為豐富的度量統計功能,可以直觀的得到測試管理過程中需要進行分析和總結的數據。點擊首頁橫向導航

train loss與test loss結果分析

問題 結構 訓練 loss 數據集 需要 超參數 不變 設計 train loss 不斷下降,test loss不斷下降,說明網絡仍在學習; train loss 不斷下降,test loss趨於不變,說明網絡過擬合; train loss 趨於不變,test loss不斷

LoadRunner測試結果分析

fonts 瀏覽器 col splay 詳細信息 size 分析 .com 情況 Analysis 窗口一覽 : ? “會話瀏覽器”窗格。 位於左上方的窗格, Analysis 在其中顯示已經打開可供查看的報告和圖。您可以在此處顯示打開 Analysis 時未顯示的新

LoadRunner測試結果分析(3)

前面分析的Web Resource(網路資源)的測試情況,其主要關注的是伺服器效能,而系統本身和環境都有可能存在問題,頁面診斷(Web Page Diagnostics)主要就是關注這方面的問題。頁面診斷可以很好地定位環境問題,如客戶端問題、網路問題等,也可以很好的分析系統本身的問題,如網頁問題。

LoadRunner測試結果分析(2)

上一篇所述測試過程的重點在於事務,而LoadRunner生成的測試結果圖並不侷限於事務上,其中還有是關於Vusers、Errors、Web Resources、Web Page diagnostics的測試圖。 1. 對於Vusers的測試圖有3種:Running Vusers、Vuse