ceph儲存 ceph叢集效能測試fio
…
mytest1: (g=0): rw=randrw, bs=16K-16K/16K-16K, ioengine=psync, iodepth=1
fio 2.0.7
Starting 30 threads
Jobs: 1 (f=1): [________________m_____________] [3.5% done] [6935K/3116K /s][423 /190 iops] [eta 48m:20s]s]
mytest1: (groupid=0, jobs=30): err= 0: pid=23802
read : io=1853.4MB, bw=18967KB/s, iops=1185
clat (usec): min=60 , max=871116 , avg=25227.91,stdev=31653.46
lat (usec): min=60 , max=871117 , avg=25228.08,stdev=31653.46
clat percentiles (msec):
| 1.00th=[ 3], 5.00th=[ 5], 10.00th=[ 6],20.00th=[ 8],
| 30.00th=[ 10], 40.00th=[ 12], 50.00th=[ 15], 60.00th=[ 19],
| 70.00th=[ 26], 80.00th=[ 37], 90.00th=[ 57], 95.00th=[ 79],
| 99.00th=[ 151], 99.50th=[ 202],99.90th=[ 338], 99.95th=[ 383],
| 99.99th=[ 523]
bw (KB/s) : min= 26, max= 1944, per=3.36%,avg=636.84, stdev=189.15
write: io=803600KB, bw=8031.4KB/s, iops=501 , runt=100058msec
clat (usec): min=52 , max=9302 , avg=146.25, stdev=299.17
lat (usec): min=52 , max=9303 , avg=147.19,stdev=299.17
clat percentiles (usec):
| 1.00th=[ 62], 5.00th=[ 65], 10.00th=[ 68], 20.00th=[ 74],
| 30.00th=[ 84], 40.00th=[ 87], 50.00th=[ 89], 60.00th=[ 90],
| 70.00th=[ 92], 80.00th=[ 97], 90.00th=[ 120], 95.00th=[ 370],
| 99.00th=[ 1688], 99.50th=[ 2128], 99.90th=[ 3088],99.95th=[ 3696],
| 99.99th=[ 5216]
bw (KB/s) : min= 20, max= 1117, per=3.37%,avg=270.27, stdev=133.27
lat (usec) : 100=24.32%, 250=3.83%, 500=0.33%, 750=0.28%,1000=0.27%
lat (msec) : 2=0.64%, 4=3.08%, 10=20.67%, 20=19.90%,50=17.91%
lat (msec) : 100=6.87%, 250=1.70%, 500=0.19%, 750=0.01%,1000=0.01%
cpu : usr=1.70%,sys=2.41%, ctx=5237835, majf=0, minf=6344162
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%,32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%,16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%,32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=118612/w=50225/d=0,short=r=0/w=0/d=0
相關推薦
ceph儲存 ceph叢集效能測試fio
mytest1: (g=0): rw=randrw,bs=16K-16K/16K-16K, ioengine=psync, iodepth=1 … mytest1: (g=0): rw=randrw, bs=16K-16K/16K-16K, ioengine=psync, iodepth=1 fio 2.0.
ceph儲存 ceph叢集效能測試iozone
iozone工具常用引數 常用引數解釋: -a auto mode產生檔案大小16K-512M,記錄大小4K-16M的輸出結果; -e 計算時間時算上fflush,fsync的時間; -f 指定臨時測試檔案; -s 指定測試檔案大小; -r 指定測試記錄大小;
ceph儲存 ceph叢集效能檢視工具iostat
rrqm/s:每秒這個裝置相關的讀取請求有多少被Merge了(當系統呼叫需要讀取資料的時候,VFS將請求發到各個FS,如果FS發現不同的讀取請求讀取的是相同Block的資料,FS會將這個請求合併Merge);wrqm/s:每秒這個裝置相關的寫入請求有多少被Merge了。 rsec/s:每秒讀取的扇區數; w
ceph儲存 ceph叢集網路配置
簡介 建立一個高效能的Ceph儲存叢集網路配置是至關重要的。 Ceph的儲存叢集不執行CEPH客戶的路由請求或路由排程。相反, Ceph的Client直接提出請求CEPH OSD守護程序。 Ceph的OSD守護代表Ceph的客戶端執行資料備份,這意味著備份和其他因素施加額外
ceph儲存 ceph叢集Paxos演算法分析
個人整理PAXOS演算法分析文件下載連線為: 一致性問題 如上圖所示,伺服器Ai(i=1,2,..5)組成儲存叢集,每份資料在5臺伺服器中各保留一個副本。當客戶端C1和C2同時修改儲存在叢集中的同一份資料時,由於網路延遲的存在無法保證兩個修改資料的請求到達每臺伺服器的先
ceph儲存 ceph叢集ntp校時詳細配置說明
那麼大家細心的話就會發現兩個問題: 第一我們連線的是0.uk.pool.ntp.org為什麼和remote server不一樣? 第二那個最前面的+和*都是什麼意思呢? 第一個問題不難理解,因為NTP提供給我們的是一個cluster server所以每次連線的得到的伺服器都有可能是不一樣.同樣這也告訴我們了在
ceph儲存 ceph檔案系統測試工具filebench介紹
Filebench 是一款檔案系統性能的自動化測試工具,它通過快速模擬真實應用伺服器的負載來測試檔案系統的效能。它不僅可以模擬檔案系統微操作(如 copyfiles, createfiles, randomread, randomwrite ),而且可以模擬複雜的應用程式
ceph儲存 ceph叢集osd故障自我檢測
心跳是用於OSD節點間檢測對方是否故障的,以便及時發現故障節點進入相應的故障處理流程。故障檢測需要在故障的發現時間和心跳帶來的負載之間做權衡,如果心跳頻率太高則過多的心跳報文會影響系統性能,如果心跳頻率過低則會延長髮現故障節點的時間,從而影響系統的可用性。 建立連線 在大規
ceph儲存 ceph整體學習記錄(未整理較亂)
ceph原始碼下載: http://ceph.com/download/ 主要文件下載連線: http://download.iyunv.com/detail/skdkjxy/8149989 /*******************/ Time:2014-
redis及叢集效能測試
Redis叢集 文章彙總來源:由Drizzt0878大神提供 1 背景 這段時間專案需要對快取進行叢集,以下通過對redis叢集研究與測試,對比直接採用單機記憶體快取方式的效能。文章記錄本人學習與實踐redis叢集的一些步驟與測試。 2 目標 1
redis 叢集效能測試結果分析
http://blog.chinaunix.net/uid-8625039-id-4749801.html redis 叢集效能測試以及與單機效能對比(1)中針對於相同硬體,不同網路環境,不同併發數以及資料大小進行了測試,雖只是針對於set進行測試,但也能大體反映出不同條
ceph儲存 ceph中PG的意義
Overview PG = “placement group”. When placing data in the cluster, objects aremapped into PGs, and those PGs are mapped onto OSDs. We use theindirection s
ceph儲存 ceph原始碼除錯中admin_socket介面
admin_socket: 每一個程序一個,即每一個asok檔案一個,在程序初始化時進行初始化,在程序關閉時關閉,osd程序admin_socket已經初始化,如果想獲取或者設定,直接通過 admin_socket->register_command進行命令註冊,OSD::asok_command進行
ceph儲存 ceph Bluestore的架構
uint64_t size = 1048476 * 128; string fn = get_temp_bdev(size); BlueFS fs; ASSERT_EQ(0, fs.add_block_device(0, fn)); fs.add_block_extent(0, 1048576
ceph儲存 Ceph架構剖析
1. 介紹 雲硬碟是IaaS雲平臺的重要組成部分,雲硬碟給虛擬機器提供了持久的塊儲存裝置。目前的AWS 的EBS(Elastic Block store)給Amazon的EC2例項提供了高可用高可靠的塊級儲存卷,EBS適合於一些需要訪問塊裝置的應用,比如資料庫、檔案系
ceph儲存 效能測試常見問題
目錄 名詞解釋 附 起壓工具 其他工具 效能測試FAQ 1. 效能測試的基本過程是什麼? 2. 如何準備測試環境? 3. 準備環境時,由於條件限制,機器
【Ceph學習之一】Centos7上部署Ceph儲存叢集以及CephFS的安裝
Ceph已然成為開源社群極為火爆的分散式儲存開源方案,最近需要調研Openstack與Ceph的融合方案,因此開始瞭解Ceph,當然從搭建Ceph叢集開始。 我搭建機器使用了6臺虛擬機器,包括一個admin節點,一個monitor節
Centos7上部署Ceph儲存叢集以及CephFS的安裝
Ceph已然成為開源社群極為火爆的分散式儲存開源方案,最近需要調研Openstack與Ceph的融合方案,因此開始瞭解Ceph,當然從搭建Ceph叢集開始。 我搭建機器使用了6臺虛擬機器,包括一個admin節點,一個monitor節點,一個mds節點,兩個osd
初試 Centos7 上 Ceph 儲存叢集搭建
目錄 Ceph 介紹 環境、軟體準備 Ceph 預檢 Ceph 儲存叢集搭建 1、Ceph 介紹 Ceph 是一個開源的分散式儲存系統,包括物件儲存、塊裝置、檔案系統。它具有高可靠性、安裝方便、管理簡便、能夠輕鬆管理海量資料。Ceph 儲存叢
ceph--磁碟和rbd、rados效能測試工具和方法
我在物理機上建立了5臺虛擬機器,搭建了一個ceph叢集,結構如圖: 具體的安裝步驟參考文件:http://docs.ceph.org.cn/start/ http://www.centoscn.c