Flask- celery (芹菜)
一.什麽是Celery?
中文名翻譯為芹菜,是flask中處理異步定時周期任務的第三方組件
二.基本結構
1.需要跑的任務代碼app
2.用管道broker與用於存儲任務(就是個緩存) 工具一般用redis 或者用rabbitMQ(兔子)
3.執行任務的人worker
簡單實例 首先建立三個文件分別寫入一下代碼
from celery import Celery import time #創建一個Celery實例,這就是我們用戶的應用app my_task = Celery("tasks", broker="redis://127.0.0.1:6379s1", backend="redis://127.0.0.1:6379") # 為應用創建任務,func1 @my_task.task def func1(x, y): time.sleep(15) return x + y s1.py
from s1 import func1 # 將任務交給Celery的Worker執行 res = func1.delay(2,4) #返回任務ID print(res.id) s2.pys2
from celery.result import AsyncResult froms3s1 import my_task # 異步獲取任務返回值 async_task = AsyncResult(id="31ec65e8-3995-4ee1-b3a8-1528400afd5a",app=my_task) # 判斷異步任務是否執行成功 if async_task.successful(): #獲取異步任務的返回值 result = async_task.get() print(result) else: print("任務還未執行完成") s3.py
s1就是前面提到的worker
啟動:Windows:這裏需要註意的是celery 4.0 已經不再對Windows操作系統提供支持了,也就是在windows環境下出現問題除非自己解決,否賊官方是不會給你解決的
celery worker -A s1 -l INFO -P eventlet
ps: eventlet 是一個python的三方庫 需要使用 pip安裝 pip install eventlet
執行過程:
啟動完成,其實在s1.py當中,worker已經知道了自己的broker 和 backend 在哪裏了
接下來就讓異步任務開始執行吧,對了 s2.py 中就是使用 delay 的方式來開始執行的異步任務
執行 s2.py 得到了一個字符串 55a84ea3-afa4-4ab9-8650-40e156c07441 這個字符串兒就是異步任務的ID
在Celery worker 的控制臺中可以看到這個樣子
等待15秒鐘之後就可以的到這樣一個字符串
然後通過s3.py修改異步任務的ID來獲取任務返回的結果
這樣就簡單完成了一個Celery異步任務了
以下任務模板:
在實際項目中我們應用Celery是有規則的
要滿足這樣的條件才可以哦,目錄Celery_task這個名字可以隨意起,但是一定要註意在這個目錄下一定要有一個celery.py這個文件
三.Celery定時任務
from Celery_task.task_one import one from Celery_task.task_two import two # one.delay(10,10) # two.delay(20,20) # 定時任務我們不在使用delay這個方法了,delay是立即交給task 去執行 # 現在我們使用apply_async定時執行 #首先我們要先給task一個執行任務的時間 import datetime,time # 獲取當前時間 此時間為東八區時間 ctime = time.time() # 將當前的東八區時間改為 UTC時間 註意這裏一定是UTC時間,沒有其他說法 utc_time = datetime.datetime.utcfromtimestamp(ctime) # 為當前時間增加 10 秒 add_time = datetime.timedelta(seconds=10) action_time = utc_time + add_time # action_time 就是當前時間未來10秒之後的時間 #現在我們使用apply_async定時執行 res = one.apply_async(args=(10,10),eta=action_time) print(res.id) #這樣原本延遲5秒執行的One函數現在就要在10秒鐘以後執行了 my_celery任務代碼
四.Celery周期任務
from celery import Celery from celery.schedules import crontab celery_task = Celery("task", broker="redis://127.0.0.1:6379", backend="redis://127.0.0.1:6379", include=["Celery_task.task_one","Celery_task.task_two"]) #我要要對beat任務生產做一個配置,這個配置的意思就是每10秒執行一次Celery_task.task_one任務參數是(10,10) celery_task.conf.beat_schedule={ "each10s_task":{ "task":"Celery_task.task_one.one", "schedule":10, # 每10秒鐘執行一次 "args":(10,10) }, "each1m_task": { "task": "Celery_task.task_one.one", "schedule": crontab(minute=1), # 每一分鐘執行一次 "args": (10, 10) }, "each24hours_task": { "task": "Celery_task.task_one.one", "schedule": crontab(hour=24), # 每24小時執行一次 "args": (10, 10) } } #以上配置完成之後,還有一點非常重要 # 不能直接創建Worker了,因為我們要執行周期任務,所以首先要先有一個任務的生產方 # celery beat -A Celery_task # celery worker -A Celery_task -l INFO -P eventlet celery.py周期代碼
執行過程:
創建Worker的方式並沒有發行變化,但是這裏要註意的是,每間隔一定時間後需要生產出來任務給Worker去執行,這裏需要一個生產者beat
celery beat -A Celery_task #創建生產者 beat 你的 schedule 寫在哪裏,就要從哪裏啟動
celery worker -A Celery_task -l INFO -P eventlet
創建worker之後,每10秒就會由beat創建一個任務給Worker去執行
Flask- celery (芹菜)