吉林汽車產業率先實現復工復產,供應鏈也已同步恢復生產
Celery
一、官方
Celery 官網:http://www.celeryproject.org/
Celery 官方文件英文版:http://docs.celeryproject.org/en/latest/index.html
Celery 官方文件中文版:http://docs.jinkan.org/docs/celery/
二、Celery非同步任務框架
"""
1)可以不依賴任何伺服器,通過自身命令,啟動服務(內部支援socket)
2)celery服務為為其他專案服務提供非同步解決任務需求的
注:會有兩個服務同時執行,一個是專案服務,一個是celery服務,專案服務將需要非同步處理的任務交給celery服務,celery就會在需要時非同步完成專案的需求
人是一個獨立執行的服務 | 醫院也是一個獨立執行的服務
正常情況下,人可以完成所有健康情況的動作,不需要醫院的參與;但當人生病時,就會被醫院接收,解決人生病問題
人生病的處理方案交給醫院來解決,所有人不生病時,醫院獨立執行,人生病時,醫院就來解決人生病的需求
"""
Celery架構圖
Celery的架構由三部分組成,訊息中介軟體(message broker)、任務執行單元(worker)和 任務執行結果儲存(task result store)組成。
訊息中介軟體
Celery本身不提供訊息服務,但是可以方便的和第三方提供的訊息中介軟體整合。包括,RabbitMQ, Redis等等
任務執行單元
Worker是Celery提供的任務執行的單元,worker併發的執行在分散式的系統節點中。
任務結果儲存
Task result store用來儲存Worker執行的任務的結果,Celery支援以不同方式儲存任務的結果,包括AMQP, redis等
三、使用場景
非同步執行:解決耗時任務
延遲執行:解決延遲任務
定時執行:解決週期(週期)任務
四、Celery的安裝配置
pip install celery
訊息中介軟體:RabbitMQ/Redis
app=Celery('任務名', broker='xxx', backend='xxx')
五、兩種celery任務結構:提倡用包管理,結構更清晰
# 如果 Celery物件:Celery(...) 是放在一個模組下的
# 1)終端切換到該模組所在資料夾位置:scripts
# 2)執行啟動worker的命令:celery worker -A 模組名 -l info -P eventlet
# 注:windows系統需要eventlet支援,Linux與MacOS直接執行:celery worker -A 模組名 -l info
# 注:模組名隨意
# 如果 Celery物件:Celery(...) 是放在一個包下的
# 1)必須在這個包下建一個celery.py的檔案,將Celery(...)產生物件的語句放在該檔案中
# 2)執行啟動worker的命令:celery worker -A 包名 -l info -P eventlet
# 注:windows系統需要eventlet支援,Linux與MacOS直接執行:celery worker -A 模組名 -l info
# 注:包名隨意
放在根目錄下就行:
七、Celery執行非同步任務
包架構封裝
project
├── celery_task # celery包
│ ├── __init__.py # 包檔案
│ ├── celery.py # celery連線和配置相關檔案,且名字必須交celery.py
│ └── tasks.py # 所有任務函式
├── add_task.py # 新增任務
└── get_result.py # 獲取結果
八、基本使用
celery.py 基本配置
# 1)建立app + 任務
# 2)啟動celery(app)服務:
# 非windows
# 命令:celery worker -A celery_task -l info
# windows:
# pip3 install eventlet
# celery worker -A celery_task -l info -P eventlet
# 3)新增任務:手動新增,要自定義新增任務的指令碼,右鍵執行指令碼
# 4)獲取結果:手動獲取,要自定義獲取任務的指令碼,右鍵執行指令碼
from celery import Celery
# 無密碼
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
# 有密碼:
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])
'''
broker : 任務倉庫
backend : 任務結果倉庫
include :任務(函式)所在檔案
'''
tasks.py 新增任務
from .celery import app
@app.task
def add(n1,n2):
res = n1+n2
print('n1+n2 = %s' % res)
return res
@app.task
def low(n1,n2):
res = n1-n2
print('n1-n2 = %s' % res)
return res
add_task.py 新增立即、延遲任務
from celery_task import tasks
# delay :新增立即任務
# apply_async : 新增延遲任務
# eta : 執行的utc時間
# 新增立即執行任務
t1 = tasks.add.delay(10, 20)
t2 = tasks.low.delay(100, 50)
print(t1.id)
# 新增延遲任務
from celery_package.tasks import jump
from datetime import datetime,timedelta
# 秒
def eta_second(second):
ctime = datetime.now() # 當前時間
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp()) # 當前UTC時間
time_delay = timedelta(seconds=second) # 秒
return utc_ctime + time_delay # 當前時間+往後延遲的秒
# 天
def eta_days(days):
ctime = datetime.now() # 當前時間
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp()) # 當前UTC時間
time_delay = timedelta(days=days) # 天
return utc_ctime + time_delay # 當前時間+往後延遲的天
jump.apply_async(args=(20,5), eta=eta_second(10)) # 10秒後執行
jump.apply_async(args=(20,5), eta=eta_days(1)) # 1天后執行
get_result.py 獲取結果
from celery_task.celery import app
from celery.result import AsyncResult
id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
async = AsyncResult(id=id, app=app)
if async.successful():
result = async.get()
print(result)
elif async.failed():
print('任務失敗')
elif async.status == 'PENDING':
print('任務等待中被執行')
elif async.status == 'RETRY':
print('任務異常後正在重試')
elif async.status == 'STARTED':
print('任務已經開始被執行')
九、高階使用
celery.py 定時任務配置(迴圈的)
特點:
新增任務的終端關閉之後,停止新增
celery服務端關閉後,把關閉之後未執行的任務都執行一遍,然後繼續接收任務
# 1)建立app + 任務
# 2)啟動celery(app)服務:
# 注):-A 表示相對路徑,所以一定先進入celery_task所在包
-l 表示列印到日誌 info 級別
# 非windows
# 命令:celery worker -A celery_task -l info
# windows:
# pip3 install eventlet
# celery worker -A celery_task -l info -P eventlet
# 3)新增任務:自動新增任務,所以要啟動一個新增任務的服務
# 命令:celery beat -A celery_task -l info
# 4)獲取結果
from celery import Celery
# 無密碼
broker = 'redis://127.0.0.1:6379/1'
backend = 'redis://127.0.0.1:6379/2'
# 有密碼:
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])
# 時區
app.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
app.conf.enable_utc = False
# 自動任務的定時配置
from datetime import timedelta
from celery.schedules import crontab
app.conf.beat_schedule = {
# 定時任務名字
'fall_task': {
'task': 'celery_task.tasks.fall',
'args':(30,20),
'schedule': timedelta(seconds=3), # 3秒後執行
# 'schedule': crontab(hour=8, day_of_week=1), # 每週一早八點
}
}
'''
fall_task:任務名自定義
task:任務來源
args:任務引數
schedule:定時時間
'''
'schedule': crontab(hour=8, day_of_week=1), # 每週一早八點
'''
minute : 分鐘
hour :小時
day_of_week :禮拜
day_of_month:月
month_of_year:年
'''
tasks.py
from .celery import app
@app.task
def fall(n1,n2):
res = n1/n2
print('n1 /n2 = %s' % res)
return res
get_result.py
from celery_task.celery import app
from celery.result import AsyncResult
id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
async = AsyncResult(id=id, app=app)
if async.successful():
result = async.get()
print(result)
elif async.failed():
print('任務失敗')
elif async.status == 'PENDING':
print('任務等待中被執行')
elif async.status == 'RETRY':
print('任務異常後正在重試')
elif async.status == 'STARTED':
print('任務已經開始被執行')
十、django中使用(更新輪播圖案例)
最終達到的效果:根據定時任務來更新redis中的快取。使用者獲取資源都是從redis快取中獲取。避免了資料庫的壓力
redis的配置
dev.py
# 快取redis資料庫配置
CACHES = {
"default": {
"BACKEND": "django_redis.cache.RedisCache",
"LOCATION": "redis://127.0.0.1:6379/10",
"OPTIONS": {
"CLIENT_CLASS": "django_redis.client.DefaultClient",
"CONNECTION_POOL_KWARGS": {"max_connections": 100}, # 同時的併發量
"DECODE_RESPONSES": True,
"PASSWORD": "123",
}
}
}
介面快取
"""
1)什麼是介面的後臺快取
前臺訪問後臺介面,後臺會優先從快取(記憶體)中查詢介面資料
如果有資料,直接對前臺響應快取資料
如果沒有資料,與(mysql)資料庫互動,得到資料,對前臺響應,同時將資料進行快取,以備下次使用
瞭解:前臺快取 - 前臺在請求到介面資料後,在前臺建立快取,再發送同樣請求時,發現前臺快取有資料,就不再對後臺做請求了
2)什麼的介面會進行介面快取
i)介面會被大量訪問:比如主頁中的介面,幾乎所有人都會訪問,而且會重複訪問
ii)在一定時間內資料不會變化(或資料不變化)的介面
iii)介面資料的時效性不是特別強(資料庫資料發生變化了,不是立即同步給前臺,驗後時間同步給前臺也沒事)
注:理論上所有介面都可以建立快取,只要資料庫與快取資料同步及時
3)如何實現介面快取:主頁輪播圖介面
"""
views.py
from rest_framework.viewsets import ModelViewSet
from rest_framework import mixins
from . import models, serializers
from django.conf import settings
from rest_framework.response import Response
from django.core.cache import cache
class BannerViewSet(ModelViewSet, mixins.ListModelMixin):
queryset = models.Banner.objects.filter(is_delete=False, is_show=True).order_by('-orders')[:settings.BANNER_COUNT]
serializer_class = serializers.BannerSerializer
# 有快取走快取,沒有快取走資料庫,然後同步給快取。介面自己實現
def list(self, request, *args, **kwargs):
banner_list = cache.get('banner_list')
if not banner_list:
print('走了資料庫')
response = self.list(request, *args, **kwargs)
banner_list = response.data
cache.set('banner_list', banner_list, 86400) # 存進快取中,快取配置了redis資料庫
return Response(banner_list)
啟動服務
'''
1):先切換到celery_task所在的同級目錄(一般為根目錄下)
2):開一個終端(啟動服務): celery worker -A celery_task -l info -P eventlet
3):再開一個終端(新增任務): celery beat -A celery_task -l info
'''
# 注):-A 表示相對路徑,所以一定先進入celery_task所在包
-l 表示列印到日誌 info 級別
celery.py
"""
celery框架django專案工作流程
1)載入django配置環境
2)建立Celery框架物件app,配置broker和backend,得到的app就是worker
3)給worker對應的app新增可處理的任務函式,用include配置給worker的app
4)完成提供的任務的定時配置app.conf.beat_schedule
5)啟動celery服務,執行worker,執行任務
6)啟動beat服務,執行beat,新增任務
重點:由於採用了django的反射機制,使用celery.py所在的celery_task包必須放置專案的根目錄下
"""
# 一、載入django配置環境
import os
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "luffyapi.settings.dev")
# 二、載入celery配置環境
from celery import Celery
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
# worker
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks']) # 外面的包名和檔名,一般都是固定
# 時區
app.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
app.conf.enable_utc = False
# 任務的定時配置
from datetime import timedelta
from celery.schedules import crontab
app.conf.beat_schedule = {
# 定時任務名字
'update_banner_cache': {
'task': 'celery_task.tasks.update_banner_list',
'args': (),
'schedule': timedelta(seconds=10), # 3秒一次
# 'schedule': crontab(hour=8, day_of_week=1), # 每週一早八點
# 'schedule': crontab(minute=0, day_of_week=1), # 每週一早八點
}
}
'''
minute : 分鐘
hour :小時
day_of_week :禮拜
day_of_month:月
month_of_year:年
'''
'''
fall_task:任務名自定義
task:任務來源
args:任務引數
schedule:定時時間(秒)
'''
tasks.py
from .celery import app
from django.core.cache import cache
from home import models, serializers
from django.conf import settings
@app.task
def update_banner_list():
queryset = models.Banner.objects.filter(is_delete=False, is_show=True).order_by('-orders')[:settings.BANNER_COUNT]
banner_list = serializers.BannerSerializer(queryset, many=True).data
# 拿不到request物件,所以頭像的連線base_url要自己組裝
for banner in banner_list:
banner['image'] = 'http://127.0.0.1:8000%s' % banner['image']
cache.set('banner_list', banner_list, 86400)
return True
補充:
funboost python萬能通用函式加速器 https://funboost.readthedocs.io/ 適應範圍廣泛,pip install funboost。
celery對目錄層級檔名稱格式要求太高,只適合規劃新的專案,對不規則資料夾套用難度高。
所以新手使用celery很仔細的建立資料夾名字、資料夾層級、python檔名字。
所以網上的celery部落格教程雖然很多,但是並不能學會使用,因為要執行起來需要以下6個方面都掌握好,部落格文字很難表達清楚或者沒有寫全面以下6個方面。
celery消費任務不執行或者報錯NotRegistered,與很多方面有關係,如果要別人排錯,至少要發以下6方面的截圖,因為與一下6點關係很大。
1) 整個專案目錄結構,celery的目錄結構和任務函式位置,有很大影響
2) @task入參 ,使用者有沒有主動設定裝飾器的入參 name,設定了和沒設定有很大不同,建議主動設定這個名字對函式名字和所處位置依賴減小
3) celery的配置,task_queues(在3.xx叫 CELERY_QUEUES )和task_routes (在3.xx叫 task_routes)
4) celery的配置 include (在3.xx叫 CELERY_INCLUDE)或者 imports (3.xx CELERY_IMPORTS) 或者 app.autodiscover_tasks的入參
5) cmd命令列啟動引數 --queues= 的值
6) 使用者在啟動cmd命令列時候,使用者所在的資料夾。
在不規範的資料夾路徑下,使用celery難度很高,一般教程都沒教。
[專案資料夾目錄格式不規範下的celery使用演示](https://github.com/ydf0509/celery_demo) 。
此國產分散式函式排程框架 funboost python萬能通用函式加速器 https://funboost.readthedocs.io/ ,
從用法呼叫難度,使用者所需程式碼量,超高併發效能,qps控頻精確程度,支援的中介軟體型別,任務控制方式,穩定程度等19個方面全方位超過celery,任何方面都是有過之而無不及 。
釋出效能提高1000%,消費效能提高2000%
pip install funboost