Redis性能調優
Redis性能調優
盡管Redis是一個非常快速的內存數據存儲媒介,也並不代表Redis不會產生性能問題。
前文中提到過,Redis采用單線程模型,所有的命令都是由一個線程串行執行的,所以當某個命令執行耗時較長時,會拖慢其後的所有命令,這使得Redis對每個任務的執行效率更加敏感。
針對Redis的性能優化,主要從下面幾個層面入手:
- 最初的也是最重要的,確保沒有讓Redis執行耗時長的命令
- 使用pipelining將連續執行的命令組合執行
- 操作系統的Transparent huge pages功能必須關閉:
echo never > /sys/kernel/mm/transparent_hugepage/enabled
- 如果在虛擬機中運行Redis,可能天然就有虛擬機環境帶來的固有延遲。可以通過./redis-cli --intrinsic-latency 100命令查看固有延遲。同時如果對Redis的性能有較高要求的話,應盡可能在物理機上直接部署Redis。
- 檢查數據持久化策略
- 考慮引入讀寫分離機制
長耗時命令
Redis絕大多數讀寫命令的時間復雜度都在O(1)到O(N)之間,在文本和官方文檔中均對每個命令的時間復雜度有說明。
通常來說,O(1)的命令是安全的,O(N)命令在使用時需要註意,如果N的數量級不可預知,則應避免使用。例如對一個field數未知的Hash數據執行HGETALL/HKEYS/HVALS命令,通常來說這些命令執行的很快,但如果這個Hash中的field數量極多,耗時就會成倍增長。
又如使用SUNION對兩個Set執行Union操作,或使用SORT對List/Set執行排序操作等時,都應該嚴加註意。
避免在使用這些O(N)命令時發生問題主要有幾個辦法:
- 不要把List當做列表使用,僅當做隊列來使用
- 通過機制嚴格控制Hash、Set、Sorted Set的大小
- 可能的話,將排序、並集、交集等操作放在客戶端執行
- 絕對禁止使用KEYS命令
- 避免一次性遍歷集合類型的所有成員,而應使用SCAN類的命令進行分批的,遊標式的遍歷
Redis提供了SCAN命令,可以對Redis中存儲的所有key進行遊標式的遍歷,避免使用KEYS命令帶來的性能問題。同時還有SSCAN/HSCAN/ZSCAN等命令,分別用於對Set/Hash/Sorted Set中的元素進行遊標式遍歷。SCAN類命令的使用請參考官方文檔:https://redis.io/commands/scan
Redis提供了Slow Log功能,可以自動記錄耗時較長的命令。相關的配置參數有兩個:
slowlog-log-slower-than xxxms #執行時間慢於xxx毫秒的命令計入Slow Log
slowlog-max-len xxx #Slow Log的長度,即最大紀錄多少條Slow Log
使用SLOWLOG GET [number]命令,可以輸出最近進入Slow Log的number條命令。
使用SLOWLOG RESET命令,可以重置Slow Log
網絡引發的延遲
- 盡可能使用長連接或連接池,避免頻繁創建銷毀連接
- 客戶端進行的批量數據操作,應使用Pipeline特性在一次交互中完成。具體請參照本文的Pipelining章節
數據持久化引發的延遲
Redis的數據持久化工作本身就會帶來延遲,需要根據數據的安全級別和性能要求制定合理的持久化策略:
- AOF + fsync always的設置雖然能夠絕對確保數據安全,但每個操作都會觸發一次fsync,會對Redis的性能有比較明顯的影響
- AOF + fsync every second是比較好的折中方案,每秒fsync一次
- AOF + fsync never會提供AOF持久化方案下的最優性能
- 使用RDB持久化通常會提供比使用AOF更高的性能,但需要註意RDB的策略配置
- 每一次RDB快照和AOF Rewrite都需要Redis主進程進行fork操作。fork操作本身可能會產生較高的耗時,與CPU和Redis占用的內存大小有關。根據具體的情況合理配置RDB快照和AOF Rewrite時機,避免過於頻繁的fork帶來的延遲
Redis在fork子進程時需要將內存分頁表拷貝至子進程,以占用了24GB內存的Redis實例為例,共需要拷貝24GB / 4kB * 8 = 48MB的數據。在使用單Xeon 2.27Ghz的物理機上,這一fork操作耗時216ms。
可以通過INFO命令返回的latest_fork_usec字段查看上一次fork操作的耗時(微秒)
Swap引發的延遲
當Linux將Redis所用的內存分頁移至swap空間時,將會阻塞Redis進程,導致Redis出現不正常的延遲。Swap通常在物理內存不足或一些進程在進行大量I/O操作時發生,應盡可能避免上述兩種情況的出現。
/proc/<pid>/smaps文件中會保存進程的swap記錄,通過查看這個文件,能夠判斷Redis的延遲是否由Swap產生。如果這個文件中記錄了較大的Swap size,則說明延遲很有可能是Swap造成的。
數據淘汰引發的延遲
當同一秒內有大量key過期時,也會引發Redis的延遲。在使用時應盡量將key的失效時間錯開。
引入讀寫分離機制
Redis的主從復制能力可以實現一主多從的多節點架構,在這一架構下,主節點接收所有寫請求,並將數據同步給多個從節點。
在這一基礎上,我們可以讓從節點提供對實時性要求不高的讀請求服務,以減小主節點的壓力。
尤其是針對一些使用了長耗時命令的統計類任務,完全可以指定在一個或多個從節點上執行,避免這些長耗時命令影響其他請求的響應。
關於讀寫分離的具體說明,請參見後續章節
主從復制與集群分片
主從復制
Redis支持一主多從的主從復制架構。一個Master實例負責處理所有的寫請求,Master將寫操作同步至所有Slave。
借助Redis的主從復制,可以實現讀寫分離和高可用:
- 實時性要求不是特別高的讀請求,可以在Slave上完成,提升效率。特別是一些周期性執行的統計任務,這些任務可能需要執行一些長耗時的Redis命令,可以專門規劃出1個或幾個Slave用於服務這些統計任務
- 借助Redis Sentinel可以實現高可用,當Master crash後,Redis Sentinel能夠自動將一個Slave晉升為Master,繼續提供服務
啟用主從復制非常簡單,只需要配置多個Redis實例,在作為Slave的Redis實例中配置:
slaveof 192.168.1.1 6379 #指定Master的IP和端口
當Slave啟動後,會從Master進行一次冷啟動數據同步,由Master觸發BGSAVE生成RDB文件推送給Slave進行導入,導入完成後Master再將增量數據通過Redis Protocol同步給Slave。之後主從之間的數據便一直以Redis Protocol進行同步
使用Sentinel做自動failover
Redis的主從復制功能本身只是做數據同步,並不提供監控和自動failover能力,要通過主從復制功能來實現Redis的高可用,還需要引入一個組件:Redis Sentinel
Redis Sentinel是Redis官方開發的監控組件,可以監控Redis實例的狀態,通過Master節點自動發現Slave節點,並在監測到Master節點失效時選舉出一個新的Master,並向所有Redis實例推送新的主從配置。
Redis Sentinel需要至少部署3個實例才能形成選舉關系。
關鍵配置:
sentinel monitor mymaster 127.0.0.1 6379 2 #Master實例的IP、端口,以及選舉需要的贊成票數
sentinel down-after-milliseconds mymaster 60000 #多長時間沒有響應視為Master失效
sentinel failover-timeout mymaster 180000 #兩次failover嘗試間的間隔時長
sentinel parallel-syncs mymaster 1 #如果有多個Slave,可以通過此配置指定同時從新Master進行數據同步的Slave數,避免所有Slave同時進行數據同步導致查詢服務也不可用
另外需要註意的是,Redis Sentinel實現的自動failover不是在同一個IP和端口上完成的,也就是說自動failover產生的新Master提供服務的IP和端口與之前的Master是不一樣的,所以要實現HA,還要求客戶端必須支持Sentinel,能夠與Sentinel交互獲得新Master的信息才行。
集群分片
為何要做集群分片:
- Redis中存儲的數據量大,一臺主機的物理內存已經無法容納
- Redis的寫請求並發量大,一個Redis實例以無法承載
當上述兩個問題出現時,就必須要對Redis進行分片了。
Redis的分片方案有很多種,例如很多Redis的客戶端都自行實現了分片功能,也有向Twemproxy這樣的以代理方式實現的Redis分片方案。然而首選的方案還應該是Redis官方在3.0版本中推出的Redis Cluster分片方案。
本文不會對Redis Cluster的具體安裝和部署細節進行介紹,重點介紹Redis Cluster帶來的好處與弊端。
Redis Cluster的能力
- 能夠自動將數據分散在多個節點上
- 當訪問的key不在當前分片上時,能夠自動將請求轉發至正確的分片
- 當集群中部分節點失效時仍能提供服務
其中第三點是基於主從復制來實現的,Redis Cluster的每個數據分片都采用了主從復制的結構,原理和前文所述的主從復制完全一致,唯一的區別是省去了Redis Sentinel這一額外的組件,由Redis Cluster負責進行一個分片內部的節點監控和自動failover。
Redis Cluster分片原理
Redis Cluster中共有16384個hash slot,Redis會計算每個key的CRC16,將結果與16384取模,來決定該key存儲在哪一個hash slot中,同時需要指定Redis Cluster中每個數據分片負責的Slot數。Slot的分配在任何時間點都可以進行重新分配。
客戶端在對key進行讀寫操作時,可以連接Cluster中的任意一個分片,如果操作的key不在此分片負責的Slot範圍內,Redis Cluster會自動將請求重定向到正確的分片上。
hash tags
在基礎的分片原則上,Redis還支持hash tags功能,以hash tags要求的格式明明的key,將會確保進入同一個Slot中。例如:{uiv}user:1000和{uiv}user:1001擁有同樣的hash tag {uiv},會保存在同一個Slot中。
使用Redis Cluster時,pipelining、事務和LUA Script功能涉及的key必須在同一個數據分片上,否則將會返回錯誤。如要在Redis Cluster中使用上述功能,就必須通過hash tags來確保一個pipeline或一個事務中操作的所有key都位於同一個Slot中。
有一些客戶端(如Redisson)實現了集群化的pipelining操作,可以自動將一個pipeline裏的命令按key所在的分片進行分組,分別發到不同的分片上執行。但是Redis不支持跨分片的事務,事務和LUA Script還是必須遵循所有key在一個分片上的規則要求。
主從復制 vs 集群分片
在設計軟件架構時,要如何在主從復制和集群分片兩種部署方案中取舍呢?
從各個方面看,Redis Cluster都是優於主從復制的方案
- Redis Cluster能夠解決單節點上數據量過大的問題
- Redis Cluster能夠解決單節點訪問壓力過大的問題
- Redis Cluster包含了主從復制的能力
那是不是代表Redis Cluster永遠是優於主從復制的選擇呢?
並不是。
軟件架構永遠不是越復雜越好,復雜的架構在帶來顯著好處的同時,一定也會帶來相應的弊端。采用Redis Cluster的弊端包括:
- 維護難度增加。在使用Redis Cluster時,需要維護的Redis實例數倍增,需要監控的主機數量也相應增加,數據備份/持久化的復雜度也會增加。同時在進行分片的增減操作時,還需要進行reshard操作,遠比主從模式下增加一個Slave的復雜度要高。
- 客戶端資源消耗增加。當客戶端使用連接池時,需要為每一個數據分片維護一個連接池,客戶端同時需要保持的連接數成倍增多,加大了客戶端本身和操作系統資源的消耗。
- 性能優化難度增加。你可能需要在多個分片上查看Slow Log和Swap日誌才能定位性能問題。
- 事務和LUA Script的使用成本增加。在Redis Cluster中使用事務和LUA Script特性有嚴格的限制條件,事務和Script中操作的key必須位於同一個分片上,這就使得在開發時必須對相應場景下涉及的key進行額外的規劃和規範要求。如果應用的場景中大量涉及事務和Script的使用,如何在保證這兩個功能的正常運作前提下把數據平均分到多個數據分片中就會成為難點。
所以說,在主從復制和集群分片兩個方案中做出選擇時,應該從應用軟件的功能特性、數據和訪問量級、未來發展規劃等方面綜合考慮,只在確實有必要引入數據分片時再使用Redis Cluster。
下面是一些建議:
- 需要在Redis中存儲的數據有多大?未來2年內可能發展為多大?這些數據是否都需要長期保存?是否可以使用LRU算法進行非熱點數據的淘汰?綜合考慮前面幾個因素,評估出Redis需要使用的物理內存。
- 用於部署Redis的主機物理內存有多大?有多少可以分配給Redis使用?對比(1)中的內存需求評估,是否足夠用?
- Redis面臨的並發寫壓力會有多大?在不使用pipelining時,Redis的寫性能可以超過10萬次/秒(更多的benchmark可以參考 https://redis.io/topics/benchmarks )
- 在使用Redis時,是否會使用到pipelining和事務功能?使用的場景多不多?
綜合上面幾點考慮,如果單臺主機的可用物理內存完全足以支撐對Redis的容量需求,且Redis面臨的並發寫壓力距離Benchmark值還尚有距離,建議采用主從復制的架構,可以省去很多不必要的麻煩。同時,如果應用中大量使用pipelining和事務,也建議盡可能選擇主從復制架構,可以減少設計和開發時的復雜度。
Redis Java客戶端的選擇
Redis的Java客戶端很多,官方推薦的有三種:Jedis、Redisson和lettuce。
在這裏對Jedis和Redisson進行對比介紹
Jedis:
- 輕量,簡潔,便於集成和改造
- 支持連接池
- 支持pipelining、事務、LUA Scripting、Redis Sentinel、Redis Cluster
- 不支持讀寫分離,需要自己實現
- 文檔差(真的很差,幾乎沒有……)
Redisson:
- 基於Netty實現,采用非阻塞IO,性能高
- 支持異步請求
- 支持連接池
- 支持pipelining、LUA Scripting、Redis Sentinel、Redis Cluster
- 不支持事務,官方建議以LUA Scripting代替事務
- 支持在Redis Cluster架構下使用pipelining
- 支持讀寫分離,支持讀負載均衡,在主從復制和Redis Cluster架構下都可以使用
- 內建Tomcat Session Manager,為Tomcat 6/7/8提供了會話共享功能
- 可以與Spring Session集成,實現基於Redis的會話共享
- 文檔較豐富,有中文文檔
對於Jedis和Redisson的選擇,同樣應遵循前述的原理,盡管Jedis比起Redisson有各種各樣的不足,但也應該在需要使用Redisson的高級特性時再選用Redisson,避免造成不必要的程序復雜度提升。
Jedis:
github:https://github.com/xetorthio/jedis
文檔:https://github.com/xetorthio/jedis/wiki
Redisson:
github:https://github.com/redisson/redisson
文檔:https://github.com/redisson/redisson/wiki
1. 什麽是redis
Redis是一個nosql的高性能Key-Value內存數據庫,支持網絡,亦可本地持久化。3.0.0Beta版已支持集群。
詳細資料可見http://www.redis.cn/
2. Redis關鍵參數
? 客戶端最大連接數(maxclients)
可能的錯誤信息:max number of clients reached。
默認為0,即不限制,一般不需要更改,所以客戶端連接限制,取決於操作系統參數ulimit -n(max open files),可通過修改/etc/security/limits.conf文件以永久生效。
以下場景在性能壓測時出現,涉及三個參數:
可能的錯誤信息:scheduled to be closed ASAP for overcoming of output buffer limits。
有時候明明master/slave都活得好好的,突然間就說要重新進行全同步了:
1.Slave顯示:# MASTER time out: no data nor PING received…
2.Master顯示:# Client addr=10.175.162.123:44670 flags=S oll=104654 omem=2147487792 events=rw cmd=sync scheduled to be closed ASAP for overcoming of output buffer limits.
? 主從響應策略(repl-ping-slave-period/repl-timeout)
slave會每隔repl-ping-slave-period(默認10秒)ping一次master,如果超過repl-timeout(默認 60秒)都沒有收到響應,就會認為Master掛了。如果Master明明沒掛但被阻塞住了也會報這個錯。可以適當調大repl-timeout。
? 客戶端輸出緩沖區(client-output-buffer-limit)
該參數有三種場景策略,主要是第二種slave場景。當使用主從復制時,性能壓測下,數據量會急劇增長,導致從節點需要復制的數據很大,消耗時長增加。slave沒掛但被阻塞住了,比如正在loading Master發過來的RDB, Master的指令不能立刻發送給slave,就會放在output buffer中(見oll是命令數量,omem是大小),在配置文件中有如下配置:client-output-buffer-limit slave 256mb 64mb 60, 這是說負責發數據給slave的client,如果buffer超過256m或者連續60秒超過64m,就會被立刻強行關閉。所以此時應該相應調大數值,否則就會出現很悲劇的循環:Master傳輸一個很大的RDB給Slave,Slave努力地裝載,但還沒裝載完,Master對client的緩存滿了,再來一次。
平時可以在master執行 redis-cli client list 找那個cmd=sync,flag=S的client,註意OMem的變化。
? 日誌級別和輸出(loglevel、logfile)
生產可調整為warning級別,並重定向到某個文件。這對排除問題很有幫助。
3. 性能調優
? 內存分配限制
可能的錯誤信息:Cannot allocate memory
Redis在主從復制時,需要fork子進程來進行操作,如果你的應用堆積了很大數據在內存中,那麽就需要針對這個子進程申請相應的內存空間,此時會受到操作系統的限制。通過更改系統配置文件/etc/sysctl.conf的vm.overcommit_memory=1以永久生效。該參數有0、1、2三個值。1表示允許分配所有的物理內存,而不管當前的內存狀態如何。
? 客戶端頻繁獲取連接限制
可能的錯誤信息:Cannot assign requested address
頻繁地連服務器,但每次連接都在短時間內結束,導致很多的TIME_WAIT,以至於用光端口號,所以新連接沒辦法綁定端口。修改如下2個內核參數:
sysctl -w net.ipv4.tcp_timestamps=1,開啟對於TCP時間戳的支持,若該項設置為0,則下面一項設置不起作用;
sysctl -w net.ipv4.tcp_tw_recycle=1,表示開啟TCP連接中TIME-WAIT sockets的快速回收。
一、 Redis部署結構優化建議
1. Master不做AOF或RDB持久化,Slave做AOF持久化,建議同時做RDB持久化
2. 所有Master全部增加Slave
3. Master掛載Slave不超過2個,采用M-S-S方式掛載。若想保證高可用,即主從切換,可采用Keepalived機制.
備註:以上是基於Redis部署結構不合理提出的建議,同時也參考了新浪微博、淘寶架構中Redis優化方案給出
二、 Redis配置優化建議
1.tcp-keepalive 60
阻止由於某個command執行過長達到timeout超時時間而被斷開連接,且可以提高連接錯誤的檢測.
- 1
- 2
2.stop-writes-on-bgsave-error no
當bgsave快照操作出錯時停止寫數據到磁盤,這樣後面寫操作均會失敗,為了不影響後續寫操作,故需將該項值改為no.
- 1
- 2
3.rdbchecksum no
檢查RDB數據的正確性,會犧牲10%的性能,故建議關閉.
- 1
- 2
4.auto-aof-rotate-max-size 20gb
auto-aof-rotate-max-total 4
auto-aof-rewrite-percentage 0 (關閉rewrite模式)
將AOF rewrite模式改為rotate模式,即將AOF在線實時Rewrite的功能,切換到線下操作,1份AOF文件切割成多份(類似日誌切割),這樣提升了redis性能的同時提升內存的利用率.
- 1
- 2
- 3
- 4
5.no-appendfsync-on-rewrite yes
避免新修改數據刷磁盤時出現IO阻塞
- 1
- 2
備註:以上是基於Redis配置不合理提出的優化建議
三、 系統內核配置優化建議
1.開啟了AOF模式,為了緩解IO阻塞
編輯/etc/sysctl.conf ,添加如下配置:
vm.dirty_background_ratio = 5
vm.dirty_ratio = 10
- 1
- 2
然後sysctl -p 使配置文件生效.
2.開啟了RDB模式,為了避免Fork失敗
編輯/etc/sysctl.conf ,改vm.overcommit_memory=1,
然後sysctl -p 使配置文件生效
備註:以上是基於測試結果給出的系統內核優化建議
後續計劃:
以上是從架構角度提出的優化建議,後續會從業務角度,分析內存類型是否合理、冷熱數據劃分是否合理等
備註:
關於冷熱數據劃分,可使用如下Redis命令進行統計分析:
OBJECT REFCOUNT 該命令主要用於調試(debugging),它能夠返回指定key所對應value被引用的次數.
OBJECT ENCODING 該命令返回指定key對應value所使用的內部表示(representation)(譯者註:也可以理解為數據的壓縮方式).
OBJECT IDLETIME 該命令返回指定key對應的value自被存儲之後空閑的時間,以秒為單位(沒有讀寫操作的請求) ,這個值返回以10秒為單位的秒級別時間,這一點可能在以後的實現中改善
Redis性能調優