1. 程式人生 > 資料庫 >python使用pipeline批量讀寫redis的方法

python使用pipeline批量讀寫redis的方法

用了很久的redis了。隨著業務的要求越來越高。對redis的讀寫速度要求也越來越高。正好最近有個需求(需要在秒級取值1000+的資料),如果對於傳統的單詞取值,迴圈取值,消耗實在是大,有小夥伴可能考慮到多執行緒,但這並不是最好的解決方案,這裡考慮到了redis特有的功能pipeline管道功能。

下面就更大家演示一下pipeline在python環境下的使用情況。

1、插入資料

>>> import redis

>>> conn = redis.Redis(host='192.168.8.176',port=6379)

>>> pipe = conn.pipeline()

>>> pipe.hset("hash_key","leizhu900516",8)
Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>>

>>> pipe.hset("hash_key","chenhuachao",9)
Pipeline<ConnectionPool<Connection<host=192.168.8.176,"wanger",10)
Pipeline<ConnectionPool<Connection<host=192.168.8.176,db=0>>>

>>> pipe.execute()
[1L,1L,1L]
>>> 

2、批量讀取資料

>>> pipe.hget("hash_key","leizhu900516")
Pipeline<ConnectionPool<Connection<host=192.168.8.176,db=0>>>

>>> pipe.hget("hash_key","chenhuachao")
Pipeline<ConnectionPool<Connection<host=192.168.8.176,"wanger")
Pipeline<ConnectionPool<Connection<host=192.168.8.176,db=0>>>

>>> result = pipe.execute()

>>> print result
['8','9','10']  #有序的列表
>>>

總結:redis的pipeline就是這麼簡單,實際生產環境,根據需要去編寫相應的程式碼。思路同理,如:

redis_db = redis.Redis(host='127.0.0.1',port=6379)
data = ['zhangsan','lisi','wangwu']

with redis_db.pipeline(transaction=False) as pipe:
  for i in data:
    pipe.zscore(self.key,i)

  result = pipe.execute()

print result
# [100,80,78]

線上的redis一般都是叢集模式,叢集模式下使用pipeline的時候,在建立pipeline的物件時,需要指定

pipe =conn.pipeline(transaction=False)

經過線上實測,利用pipeline取值3500條資料,大約需要900ms,如果配合執行緒or協程來使用,每秒返回1W資料是沒有問題的,基本能滿足大部分業務。

以上這篇python使用pipeline批量讀寫redis的方法就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支援我們。