1. 程式人生 > >Redis的資料回寫機制

Redis的資料回寫機制

參考資料:
Redis Persistence http://redis.io/topics/persistence
Google Groupshttps://groups.google.com/forum/?fromgroups=#!forum/redis-db

一、對Redis持久化的探討與理解

目前Redis持久化的方式有兩種: RDB 和 AOF

首先,我們應該明確持久化的資料有什麼用,答案是用於重啟後的資料恢復。
Redis是一個記憶體資料庫,無論是RDB還是AOF,都只是其保證資料恢復的措施。
所以Redis在利用RDB和AOF進行恢復的時候,都會讀取RDB或AOF檔案,重新載入到記憶體中。

RDB就是Snapshot快照儲存,是預設的持久化方式。
可理解為半持久化模式,即按照一定的策略週期性的將資料儲存到磁碟。
對應產生的資料檔案為dump.rdb,通過配置檔案中的save引數來定義快照的週期。
下面是預設的快照設定:

save 900 1    #當有一條Keys資料被改變時,900秒重新整理到Disk一次
save 300 10   #當有10條Keys資料被改變時,300秒重新整理到Disk一次
save 60 10000 #當有10000條Keys資料被改變時,60秒重新整理到Disk一次

Redis的RDB檔案不會壞掉,因為其寫操作是在一個新程序中進行的。
當生成一個新的RDB檔案時,Redis生成的子程序會先將資料寫到一個臨時檔案中,然後通過原子性rename系統呼叫將臨時檔案重新命名為RDB檔案。
這樣在任何時候出現故障,Redis的RDB檔案都總是可用的。

同時,Redis的RDB檔案也是Redis主從同步內部實現中的一環。
第一次Slave向Master

同步的實現是:
Slave向Master發出同步請求,Master先dump出rdb檔案,然後將rdb檔案全量傳輸給slave,然後Master把快取的命令轉發給Slave,初次同步完成。
第二次以及以後的同步實現是:
Master將變數的快照直接實時依次傳送給各個Slave。
但不管什麼原因導致Slave和Master斷開重連都會重複以上兩個步驟的過程。
Redis的主從複製是建立在記憶體快照的持久化基礎上的,只要有Slave就一定會有記憶體快照發生。

可以很明顯的看到,RDB有它的不足,就是一旦資料庫出現問題,那麼我們的RDB檔案中儲存的資料並不是全新的。
從上次RDB檔案生成到Redis停機這段時間的資料全部丟掉了。

AOF(Append-Only File)比RDB方式有更好的持久化性。
由於在使用AOF持久化方式時,Redis會將每一個收到的寫命令都通過Write函式追加到檔案中,類似於MySQL的binlog。
當Redis重啟是會通過重新執行檔案中儲存的寫命令來在記憶體中重建整個資料庫的內容。
對應的設定引數為:
$ vim /opt/redis/etc/redis_6379.conf

appendonly yes       #啟用AOF持久化方式
appendfilename appendonly.aof #AOF檔案的名稱,預設為appendonly.aof
# appendfsync always #每次收到寫命令就立即強制寫入磁碟,是最有保證的完全的持久化,但速度也是最慢的,一般不推薦使用。
appendfsync everysec #每秒鐘強制寫入磁碟一次,在效能和持久化方面做了很好的折中,是受推薦的方式。
# appendfsync no     #完全依賴OS的寫入,一般為30秒左右一次,效能最好但是持久化最沒有保證,不被推薦。

AOF的完全持久化方式同時也帶來了另一個問題,持久化檔案會變得越來越大。
比如我們呼叫INCR test命令100次,檔案中就必須儲存全部的100條命令,但其實99條都是多餘的。
因為要恢復資料庫的狀態其實檔案中儲存一條SET test 100就夠了。
為了壓縮AOF的持久化檔案,Redis提供了bgrewriteaof命令。
收到此命令後Redis將使用與快照類似的方式將記憶體中的資料以命令的方式儲存到臨時檔案中,最後替換原來的檔案,以此來實現控制AOF檔案的增長。
由於是模擬快照的過程,因此在重寫AOF檔案時並沒有讀取舊的AOF檔案,而是將整個記憶體中的資料庫內容用命令的方式重寫了一個新的AOF檔案。
對應的設定引數為:
$ vim /opt/redis/etc/redis_6379.conf

no-appendfsync-on-rewrite yes   #在日誌重寫時,不進行命令追加操作,而只是將其放在緩衝區裡,避免與命令的追加造成DISK IO上的衝突。
auto-aof-rewrite-percentage 100 #當前AOF檔案大小是上次日誌重寫得到AOF檔案大小的二倍時,自動啟動新的日誌重寫過程。
auto-aof-rewrite-min-size 64mb  #當前AOF檔案啟動新的日誌重寫過程的最小值,避免剛剛啟動Reids時由於檔案尺寸較小導致頻繁的重寫。

到底選擇什麼呢?下面是來自官方的建議:
通常,如果你要想提供很高的資料保障性,那麼建議你同時使用兩種持久化方式。
如果你可以接受災難帶來的幾分鐘的資料丟失,那麼你可以僅使用RDB。
很多使用者僅使用了AOF,但是我們建議,既然RDB可以時不時的給資料做個完整的快照,並且提供更快的重啟,所以最好還是也使用RDB。
因此,我們希望可以在未來(長遠計劃)統一AOF和RDB成一種持久化模式。

在資料恢復方面:
RDB的啟動時間會更短,原因有兩個:
一是RDB檔案中每一條資料只有一條記錄,不會像AOF日誌那樣可能有一條資料的多次操作記錄。所以每條資料只需要寫一次就行了。
另一個原因是RDB檔案的儲存格式和Redis資料在記憶體中的編碼格式是一致的,不需要再進行資料編碼工作,所以在CPU消耗上要遠小於AOF日誌的載入。

二、災難恢復模擬
既然持久化的資料的作用是用於重啟後的資料恢復,那麼我們就非常有必要進行一次這樣的災難恢復模擬了。
據稱如果資料要做持久化又想保證穩定性,則建議留空一半的實體記憶體。因為在進行快照的時候,fork出來進行dump操作的子程序會佔用與父程序一樣的記憶體,真正的copy-on-write,對效能的影響和記憶體的耗用都是比較大的。
目前,通常的設計思路是利用Replication機制來彌補aof、snapshot效能上的不足,達到了資料可持久化。
Master上Snapshot和AOF都不做,來保證Master的讀寫效能,而Slave上則同時開啟Snapshot和AOF來進行持久化,保證資料的安全性。

首先,修改Master上的如下配置:
$ sudo vim /opt/redis/etc/redis_6379.conf

#save 900 1 #禁用Snapshot
#save 300 10
#save 60 10000

appendonly no #禁用AOF

接著,修改Slave上的如下配置:
$ sudo vim /opt/redis/etc/redis_6379.conf

save 900 1 #啟用Snapshot
save 300 10
save 60 10000

appendonly yes #啟用AOF
appendfilename appendonly.aof #AOF檔案的名稱
# appendfsync always
appendfsync everysec #每秒鐘強制寫入磁碟一次
# appendfsync no  

no-appendfsync-on-rewrite yes   #在日誌重寫時,不進行命令追加操作
auto-aof-rewrite-percentage 100 #自動啟動新的日誌重寫過程
auto-aof-rewrite-min-size 64mb  #啟動新的日誌重寫過程的最小值

分別啟動Master與Slave
$ /etc/init.d/redis start

啟動完成後在Master中確認未啟動Snapshot引數
redis 127.0.0.1:6379> CONFIG GET save
1) "save"
2) ""

然後通過以下指令碼在Master中生成25萬條資料:
[email protected]:/opt/redis/data/6379$ catredis-cli-generate.temp.sh

#!/bin/bash

REDISCLI="redis-cli -a slavepass -n 1 SET"
ID=1

while(($ID<50001))
do
  INSTANCE_NAME="i-2-$ID-VM"
  UUID=`cat /proc/sys/kernel/random/uuid`
  PRIVATE_IP_ADDRESS=10.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`.`echo "$RANDOM % 255 + 1" | bc`\
  CREATED=`date "+%Y-%m-%d %H:%M:%S"`

  $REDISCLI vm_instance:$ID:instance_name "$INSTANCE_NAME"
  $REDISCLI vm_instance:$ID:uuid "$UUID"
  $REDISCLI vm_instance:$ID:private_ip_address "$PRIVATE_IP_ADDRESS"
  $REDISCLI vm_instance:$ID:created "$CREATED"

  $REDISCLI vm_instance:$INSTANCE_NAME:id "$ID"

  ID=$(($ID+1))
done

[email protected]:/opt/redis/data/6379$./redis-cli-generate.temp.sh

在資料的生成過程中,可以很清楚的看到Master上僅在第一次做Slave同步時建立了dump.rdb檔案,之後就通過增量傳輸命令的方式給Slave了。
dump.rdb檔案沒有再增大。
[email protected]:/opt/redis/data/6379$ ls -lh
total 4.0K
-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb

而Slave上則可以看到dump.rdb檔案和AOF檔案在不斷的增大,並且AOF檔案的增長速度明顯大於dump.rdb檔案。
[email protected]:/opt/redis/data/6379$ ls -lh
total 24M
-rw-r--r-- 1 root root 15M Sep 27 12:06 appendonly.aof
-rw-r--r-- 1 root root 9.2M Sep 27 12:06 dump.rdb

等待資料插入完成以後,首先確認當前的資料量。
redis 127.0.0.1:6379> info

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:27623
run_id:e00757f7b2d6885fa9811540<wbr>df9dfed39430b642
uptime_in_seconds:1541
uptime_in_days:0
lru_clock:650187
used_cpu_sys:69.28
used_cpu_user:7.67
used_cpu_sys_children:0.00
used_cpu_user_children:0.00
connected_clients:1
connected_slaves:1
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33055824
used_memory_human:31.52M
used_memory_rss:34717696
used_memory_peak:33055800
used_memory_peak_human:31.52M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:0
changes_since_last_save:250000
bgsave_in_progress:0
last_save_time:1348677645
bgrewriteaof_in_progress:0
total_connections_received:250007
total_commands_processed:750019
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:246
vm_enabled:0
role:<span>master</span>
slave0:10.6.1.144,6379,online
db1:keys=250000,expires=0
</wbr>

當前的資料量為25萬條key,佔用記憶體31.52M。

然後我們直接Kill掉Master的Redis程序,模擬災難。
[email protected]:/opt/redis/data/6379$ sudo killall -9redis-server

我們到Slave中檢視狀態:
redis 127.0.0.1:6379> info

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df<wbr>90cf437acce1d364
uptime_in_seconds:1627
uptime_in_days:0
lru_clock:654181
used_cpu_sys:29.69
used_cpu_user:1.21
used_cpu_sys_children:1.70
used_cpu_user_children:1.23
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047696
used_memory_human:31.52M
used_memory_rss:34775040
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:3308
bgsave_in_progress:0
last_save_time:1348718951
bgrewriteaof_in_progress:0
total_connections_received:4
total_commands_processed:250308
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:694
vm_enabled:0
role:slave
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
<span>master</span>_host:10.6.1.143
<span>master</span>_port:6379
<span>master</span>_link_status:down
<span>master</span>_last_io_seconds_ago:-1
<span>master</span>_sync_in_progress:0
<span>master</span>_link_down_since_seconds:25
slave_priority:100
db1:keys=250000,expires=0
</wbr>

可以看到master_link_status的狀態已經是down了,Master已經不可訪問了。
而此時,Slave依然執行良好,並且保留有AOF與RDB檔案。

下面我們將通過Slave上儲存好的AOF與RDB檔案來恢復Master上的資料。

首先,將Slave上的同步狀態取消,避免主庫在未完成資料恢復前就重啟,進而直接覆蓋掉從庫上的資料,導致所有的資料丟失。
redis 127.0.0.1:6379> SLAVEOF NO ONE
OK

確認一下已經沒有了master相關的配置資訊:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df<wbr>90cf437acce1d364
uptime_in_seconds:1961
uptime_in_days:0
lru_clock:654215
used_cpu_sys:29.98
used_cpu_user:1.22
used_cpu_sys_children:1.76
used_cpu_user_children:1.42
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047696
used_memory_human:31.52M
used_memory_rss:34779136
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348719252
bgrewriteaof_in_progress:0
total_connections_received:4
total_commands_processed:250311
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:1119
vm_enabled:0
role:<span>master</span>
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
db1:keys=250000,expires=0
</wbr>

在Slave上覆制資料檔案:
[email protected]:/opt/redis/data/6379$ tar cvf/home/dongguo/data.tar *
appendonly.aof
dump.rdb

將data.tar上傳到Master上,嘗試恢復資料:
可以看到Master目錄下有一個初始化Slave的資料檔案,很小,將其刪除。
[email protected]:/opt/redis/data/6379$ ls -l
total 4
-rw-r--r-- 1 root root 10 Sep 27 00:40 dump.rdb
[email protected]:/opt/redis/data/6379$ sudo rm -f dump.rdb

然後解壓縮資料檔案:
[email protected]:/opt/redis/data/6379$ sudo tar xf/home/dongguo/data.tar
[email protected]:/opt/redis/data/6379$ ls -lh
total 29M
-rw-r--r-- 1 root root 18M Sep 27 01:22 appendonly.aof
-rw-r--r-- 1 root root 12M Sep 27 01:22 dump.rdb

啟動Master上的Redis;
[email protected]:/opt/redis/data/6379$ sudo /etc/init.d/redisstart
Starting Redis server...

檢視資料是否恢復:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:16959
run_id:6e5ba6c053583414e75353b2<wbr>83597ea404494926
uptime_in_seconds:22
uptime_in_days:0
lru_clock:650292
used_cpu_sys:0.18
used_cpu_user:0.20
used_cpu_sys_children:0.00
used_cpu_user_children:0.00
connected_clients:1
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33047216
used_memory_human:31.52M
used_memory_rss:34623488
used_memory_peak:33047192
used_memory_peak_human:31.52M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:0
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348680180
bgrewriteaof_in_progress:0
total_connections_received:1
total_commands_processed:1
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:0
vm_enabled:0
role:<span>master</span>
db1:keys=250000,expires=0
</wbr>

可以看到25萬條資料已經完整恢復到了Master上。

此時,可以放心的恢復Slave的同步設定了。
redis 127.0.0.1:6379> SLAVEOF 10.6.1.143 6379
OK

檢視同步狀態:
redis 127.0.0.1:6379> INFO

redis_version:2.4.17
redis_git_sha1:00000000
redis_git_dirty:0
arch_bits:64
multiplexing_api:epoll
gcc_version:4.4.5
process_id:13003
run_id:9b8b398fc63a26d160bf58df<wbr>90cf437acce1d364
uptime_in_seconds:2652
uptime_in_days:0
lru_clock:654284
used_cpu_sys:30.01
used_cpu_user:2.12
used_cpu_sys_children:1.76
used_cpu_user_children:1.42
connected_clients:2
connected_slaves:0
client_longest_output_list:0
client_biggest_input_buf:0
blocked_clients:0
used_memory:33056288
used_memory_human:31.52M
used_memory_rss:34766848
used_memory_peak:33064400
used_memory_peak_human:31.53M
mem_fragmentation_ratio:1.05
mem_allocator:jemalloc-3.0.0
loading:0
aof_enabled:1
changes_since_last_save:0
bgsave_in_progress:0
last_save_time:1348719252
bgrewriteaof_in_progress:1
total_connections_received:6
total_commands_processed:250313
expired_keys:0
evicted_keys:0
keyspace_hits:0
keyspace_misses:0
pubsub_channels:0
pubsub_patterns:0
latest_fork_usec:12217
vm_enabled:0
role:slave
aof_current_size:17908619
aof_base_size:16787337
aof_pending_rewrite:0
aof_buffer_length:0
aof_pending_bio_fsync:0
<span>master</span>_host:10.6.1.143
<span>master</span>_port:6379
<span>master</span>_link_status:up
<span>master</span>_last_io_seconds_ago:0
<span>master</span>_sync_in_progress:0
slave_priority:100
db1:keys=250000,expires=0
</wbr>

master_link_status顯示為up,同步狀態正常。

在此次恢復的過程中,我們同時複製了AOF與RDB檔案,那麼到底是哪一個檔案完成了資料的恢復呢?
實際上,當Redis伺服器掛掉時,重啟時將按照以下優先順序恢復資料到記憶體:
1. 如果只配置AOF,重啟時載入AOF檔案恢復資料;
2. 如果同時 配置了RDB和AOF,啟動是隻載入AOF檔案恢復資料;
3. 如果只配置RDB,啟動是將載入dump檔案恢復資料。

也就是說,AOF的優先順序要高於RDB,這也很好理解,因為AOF本身對資料的完整性保障要高於RDB。

在此次的案例中,我們通過在Slave上啟用了AOF與RDB來保障了資料,並恢復了Master

但在我們目前的線上環境中,由於資料都設定有過期時間,採用AOF的方式會不太實用,過於頻繁的寫操作會使AOF檔案增長到異常的龐大,大大超過了我們實際的資料量,這也會導致在進行資料恢復時耗用大量的時間。
因此,可以在Slave上僅開啟Snapshot來進行本地化,同時可以考慮將save中的頻率調高一些或者呼叫一個計劃任務來進行定期bgsave的快照儲存,來儘可能的保障本地化資料的完整性。
在這樣的架構下,如果僅僅是Master掛掉,Slave完整,資料恢復可達到100%。
如果Master與Slave同時掛掉的話,資料的恢復也可以達到一個可接受的程度。

相關推薦

Redis資料機制

參考資料: Redis Persistence http://redis.io/topics/persistence Google Groupshttps://groups.google.com/forum/?fromgroups=#!forum/redis-db 一、對Redis持久化的探討與理解 目前R

[IO系統]11 機制(writeback)

        在Linux-3.2新核心中,page cache和buffer cache的重新整理機制發生了改變。放棄了原有的pdflush機制,改成了bdi_writeback機制。這種變化主要解決原有pdflush機制存在的一個問題:在多磁碟的系統中,pdflush管

補習系列(14)-springboot redis 整合-資料

目錄 一、簡介 二、SpringBoot Redis 讀寫 A. 引入 spring-data-redis B. 序列化 C. 讀寫樣例 三、方法級快取 四、連線池 小結 一、簡介 在 補習系列(A3)-springboot redis 與

11、Spring技術棧-整合Redis,通過Redis的Master-Slave實現快取資料分離

1、Redis主從複製(Master-Salve Replication)簡介 Redis 支援簡單且易用的主從複製(master-slave replication)功能, 該功能可以讓從伺服器(slave server)成為主伺服器(master serv

Redis資料持久化機制AOF原理分析二

/* A background append only file rewriting (BGREWRITEAOF) terminated its work. * Handle this. */ void backgroundRewriteDoneHandler(int exitcode, int bysig

Redis資料淘汰機制

預設情況下,在32位OS中,Redis最大使用3GB的記憶體,在64位OS中則沒有限制。 在使用Redis時,應該對資料佔用的最大空間有一個基本準確的預估,併為Redis設定最大使用的記憶體。否則在64位OS中Redis會無限制地佔用記憶體(當實體記憶體被佔滿後會使用swa

Android中的介面撥詳解,機制:以Activity和Adapter傳遞資料為例。

首先解決啥是回撥: 我覺得這個例子比較好:某天,我打電話向你請教問題,當然是個難題,你一時想不出解決方法,我又不能拿著電話在那裡傻等,於是我們約定:等你想出辦法後打手機通知我,這樣,我就掛掉電話辦其它事情去了。過了XX分鐘,我的手機響了,你興高采烈的說問題已經搞定,應該

用 C# 一個 Redis 資料同步小工具

用 C# 寫一個 Redis 資料同步小工具 Intro 為了實現 redis 的資料遷移而寫的一個小工具,將一個例項中的 redis 資料同步到另外一個例項中。(原本打算找一個已有的工具去做,找了一個 nodejs 的小工具,結果折騰了好久都沒裝上。。。於是就自己寫了這個小工具) 之所以自己寫一個工具而不是

基於JQuery實現表單元素值的

spl sel || etc oos min javascrip odi tar form.jsp: <%@ page language="java" import="java.util.*" pageEncoding="GB2312"%> <!DO

安卓點擊事件調機制的思考

當我 屬性 .com 分享 是什麽 很好 理解 匿名內部類 參數 回調(毀掉?)機制 http://www.cnblogs.com/heshuchao/p/5376298.html這篇文章講的很好。 這篇 屬於 JAVA的範疇,只不過我們是借用安卓按鈕的onclick事件來

《Linux內核設計與實現》讀書筆記(十六)- 頁高速緩存和頁

第一次 源碼 進行 lose 減少 文件緩存 掩碼 recycle 創建 主要內容: 緩存簡介 頁高速緩存 頁回寫 1. 緩存簡介 在編程中,緩存是很常見也很有效的一種提高程序性能的機制。 linux內核也不例外,為了提高I/O性能,也引入了緩存機

一個經典例子讓你徹徹底底理解java調機制

pac hid find title tco tail comment 方法 rgs 轉帖請註明本文出自xiaanming的博客(http://blog.csdn.net/xiaanming/article/details/17483273),請尊重他人的辛勤勞動成果,謝謝

[轉載]直

處理器 back 緩存 分析 耗時 白皮書 需要 利弊 直接 概念定義:直寫式 WT,Write Through 與 回寫式 WB,Write Back 指的是緩沖內存的工作方式 直寫式緩存方式是 當 CPU 要將數據寫入內存時 除了更新緩沖內存上的數據外也將數據寫在 DR

python的學習之旅---調機制

pen name con urn time start aid 執行 color 回調機制 import requests 需要 requests 模塊的支持 需要回調函數的場景:進程池中任何一個任務一旦處理完了,就立即告知主進程:我好了額,你可以處理我的結果了。主進程

Cache機制

緩存 定義 更新 -a 內存 分配 dir clas 數據 Cache 寫機制分為:Write-through和Write-back Write-through(直寫模式) 定義:在數據更新時,同時寫入緩存Cache和後端存儲(主存); 優點:操作簡單; 缺點:因為數據

Redis Sentinel實現的機制與原理詳解

過程 正則 發送 進行 還需 生產環境 根據 stat 時間 原文:Redis Sentinel實現的機制與原理詳解序言 Redis-Sentinel是Redis官方推薦的高可用性(HA)解決方案。實際上這意味著你可以使用Sentinel模式創建一個可以不用人為幹預而應對

java設計模式之代理模式 ,以及和java 調機制的區別

-s pac 回調模式 unit 為什麽 創建 col 重要 溫習 java 代理模式就是:       將自己要做的事交給別人去做(這個別人就是代理者,自己就是被代理者),為什麽自己能做的要交給別人去做了?假如一個小學生小明,現在要寫作業,但是又想玩遊戲,他更想玩遊戲

不使用Sqoop流程,利用CacheManager直接完成SparkSQL數據流直接Oracle

不可 ase 數據庫連接 test per 數據庫 系統 shm 用戶 以前都是使用Sqoop來完成數據從生成的hdfs數據存儲上來抽取至oracle的數據庫:sqoop抽取語句:sqoop export --connect "jdbc:oracle:thin:@

文件緩存簡述

inter 大於 臟數據 路徑 req cal bsp 來看 ack 1 文件緩存回寫的時機 (1)周期性回寫,周期為dirty_writeback_interval,默認5s; (2)塊設備首次出現臟數據; (3)臟頁達到限額,包括dirty_bytes、dirty_ba

速度被限速為10M左右

啟動 span 圖片 客戶 blog 虛擬 port 網絡 get 問題現像如下圖所示: 用hd-speed等測試虛擬盤速度都能達到90M/s左右,但復制文件到虛擬盤速度最高只有10M/s原因:由於客戶機開機加載這個隨機驅動和隨機進程後,會對磁盤啟動進程等有掃描檢