1. 程式人生 > 資訊 >吉林汽車產業率先實現復工復產,供應鏈也已同步恢復生產

吉林汽車產業率先實現復工復產,供應鏈也已同步恢復生產

Celery

一、官方

Celery 官網:http://www.celeryproject.org/

Celery 官方文件英文版:http://docs.celeryproject.org/en/latest/index.html

Celery 官方文件中文版:http://docs.jinkan.org/docs/celery/

二、Celery非同步任務框架

"""
1)可以不依賴任何伺服器,通過自身命令,啟動服務(內部支援socket)
2)celery服務為為其他專案服務提供非同步解決任務需求的
注:會有兩個服務同時執行,一個是專案服務,一個是celery服務,專案服務將需要非同步處理的任務交給celery服務,celery就會在需要時非同步完成專案的需求

人是一個獨立執行的服務 | 醫院也是一個獨立執行的服務
	正常情況下,人可以完成所有健康情況的動作,不需要醫院的參與;但當人生病時,就會被醫院接收,解決人生病問題
	人生病的處理方案交給醫院來解決,所有人不生病時,醫院獨立執行,人生病時,醫院就來解決人生病的需求
"""

Celery架構圖

Celery的架構由三部分組成,訊息中介軟體(message broker)、任務執行單元(worker)和 任務執行結果儲存(task result store)組成。

訊息中介軟體

Celery本身不提供訊息服務,但是可以方便的和第三方提供的訊息中介軟體整合。包括,RabbitMQ, Redis等等

任務執行單元

Worker是Celery提供的任務執行的單元,worker併發的執行在分散式的系統節點中。

任務結果儲存

Task result store用來儲存Worker執行的任務的結果,Celery支援以不同方式儲存任務的結果,包括AMQP, redis等

三、使用場景

非同步執行:解決耗時任務

延遲執行:解決延遲任務

定時執行:解決週期(週期)任務

四、Celery的安裝配置

pip install celery

訊息中介軟體:RabbitMQ/Redis

app=Celery('任務名', broker='xxx', backend='xxx')

五、兩種celery任務結構:提倡用包管理,結構更清晰

# 如果 Celery物件:Celery(...) 是放在一個模組下的
# 1)終端切換到該模組所在資料夾位置:scripts
# 2)執行啟動worker的命令:celery worker -A 模組名 -l info -P eventlet
# 注:windows系統需要eventlet支援,Linux與MacOS直接執行:celery worker -A 模組名 -l info
# 注:模組名隨意


# 如果 Celery物件:Celery(...) 是放在一個包下的
# 1)必須在這個包下建一個celery.py的檔案,將Celery(...)產生物件的語句放在該檔案中
# 2)執行啟動worker的命令:celery worker -A 包名 -l info -P eventlet
# 注:windows系統需要eventlet支援,Linux與MacOS直接執行:celery worker -A 模組名 -l info
# 注:包名隨意

放在根目錄下就行:

七、Celery執行非同步任務

包架構封裝

project
    ├── celery_task  	# celery包
    │   ├── __init__.py # 包檔案
    │   ├── celery.py   # celery連線和配置相關檔案,且名字必須交celery.py
    │   └── tasks.py    # 所有任務函式
    ├── add_task.py  	# 新增任務
    └── get_result.py   # 獲取結果

八、基本使用

celery.py 基本配置

# 1)建立app + 任務

# 2)啟動celery(app)服務:
# 非windows
# 命令:celery worker -A celery_task -l info
# windows:
# pip3 install eventlet
# celery worker -A celery_task -l info -P eventlet

# 3)新增任務:手動新增,要自定義新增任務的指令碼,右鍵執行指令碼

# 4)獲取結果:手動獲取,要自定義獲取任務的指令碼,右鍵執行指令碼


from celery import Celery
# 無密碼
broker = 'redis://127.0.0.1:6379/1'    
backend = 'redis://127.0.0.1:6379/2'
# 有密碼:
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])
'''
broker : 任務倉庫
backend : 任務結果倉庫
include :任務(函式)所在檔案
'''

tasks.py 新增任務

from .celery import app

@app.task
def add(n1,n2):
    res = n1+n2
    print('n1+n2 = %s' % res)
    return res


@app.task
def low(n1,n2):
    res = n1-n2
    print('n1-n2 = %s' % res)
    return res

add_task.py 新增立即、延遲任務

from celery_task import tasks

# delay  :新增立即任務
# apply_async : 新增延遲任務
# eta : 執行的utc時間


# 新增立即執行任務
t1 = tasks.add.delay(10, 20)
t2 = tasks.low.delay(100, 50)
print(t1.id)


# 新增延遲任務
from celery_package.tasks import jump
from datetime import datetime,timedelta

# 秒
def eta_second(second):
    ctime = datetime.now()  # 當前時間
    utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())  # 當前UTC時間
    time_delay = timedelta(seconds=second)  # 秒
    return utc_ctime + time_delay  # 當前時間+往後延遲的秒
# 天
def eta_days(days):
    ctime = datetime.now()  # 當前時間
    utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())  # 當前UTC時間
    time_delay = timedelta(days=days)  # 天
    return utc_ctime + time_delay  # 當前時間+往後延遲的天

jump.apply_async(args=(20,5), eta=eta_second(10))  # 10秒後執行
jump.apply_async(args=(20,5), eta=eta_days(1))  # 1天后執行

get_result.py 獲取結果

from celery_task.celery import app

from celery.result import AsyncResult

id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
    async = AsyncResult(id=id, app=app)
    if async.successful():
        result = async.get()
        print(result)
    elif async.failed():
        print('任務失敗')
    elif async.status == 'PENDING':
        print('任務等待中被執行')
    elif async.status == 'RETRY':
        print('任務異常後正在重試')
    elif async.status == 'STARTED':
        print('任務已經開始被執行')

九、高階使用

celery.py 定時任務配置(迴圈的)

特點:

新增任務的終端關閉之後,停止新增

celery服務端關閉後,把關閉之後未執行的任務都執行一遍,然後繼續接收任務

# 1)建立app + 任務

# 2)啟動celery(app)服務:
# 注):-A  表示相對路徑,所以一定先進入celery_task所在包
	   -l 表示列印到日誌 info 級別
# 非windows
# 命令:celery worker -A celery_task -l info
# windows:
# pip3 install eventlet
# celery worker -A celery_task -l info -P eventlet

# 3)新增任務:自動新增任務,所以要啟動一個新增任務的服務
# 命令:celery beat -A celery_task -l info

# 4)獲取結果


from celery import Celery

# 無密碼
broker = 'redis://127.0.0.1:6379/1'    
backend = 'redis://127.0.0.1:6379/2'
# 有密碼:
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])


# 時區
app.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
app.conf.enable_utc = False

# 自動任務的定時配置
from datetime import timedelta
from celery.schedules import crontab

app.conf.beat_schedule = {
    # 定時任務名字
    'fall_task': {
        'task': 'celery_task.tasks.fall',
        'args':(30,20),
        'schedule': timedelta(seconds=3),  # 3秒後執行
        # 'schedule': crontab(hour=8, day_of_week=1),  # 每週一早八點
    }
}

'''
fall_task:任務名自定義
task:任務來源
args:任務引數
schedule:定時時間
'''


'schedule': crontab(hour=8, day_of_week=1),  # 每週一早八點
'''
minute : 分鐘
hour :小時
day_of_week :禮拜
day_of_month:月
month_of_year:年
'''

tasks.py

from .celery import app

@app.task
def fall(n1,n2):
    res = n1/n2
    print('n1 /n2 = %s' % res)
    return res

get_result.py

from celery_task.celery import app

from celery.result import AsyncResult

id = '21325a40-9d32-44b5-a701-9a31cc3c74b5'
if __name__ == '__main__':
    async = AsyncResult(id=id, app=app)
    if async.successful():
        result = async.get()
        print(result)
    elif async.failed():
        print('任務失敗')
    elif async.status == 'PENDING':
        print('任務等待中被執行')
    elif async.status == 'RETRY':
        print('任務異常後正在重試')
    elif async.status == 'STARTED':
        print('任務已經開始被執行')

十、django中使用(更新輪播圖案例)

最終達到的效果:根據定時任務來更新redis中的快取。使用者獲取資源都是從redis快取中獲取。避免了資料庫的壓力

redis的配置

dev.py

# 快取redis資料庫配置
CACHES = {
    "default": {
        "BACKEND": "django_redis.cache.RedisCache",
        "LOCATION": "redis://127.0.0.1:6379/10",
        "OPTIONS": {
            "CLIENT_CLASS": "django_redis.client.DefaultClient",
            "CONNECTION_POOL_KWARGS": {"max_connections": 100}, # 同時的併發量
            "DECODE_RESPONSES": True,
            "PASSWORD": "123",
        }
    }
}

介面快取

"""
1)什麼是介面的後臺快取
	前臺訪問後臺介面,後臺會優先從快取(記憶體)中查詢介面資料
		如果有資料,直接對前臺響應快取資料
		如果沒有資料,與(mysql)資料庫互動,得到資料,對前臺響應,同時將資料進行快取,以備下次使用
	
	瞭解:前臺快取 - 前臺在請求到介面資料後,在前臺建立快取,再發送同樣請求時,發現前臺快取有資料,就不再對後臺做請求了
	
2)什麼的介面會進行介面快取
	i)介面會被大量訪問:比如主頁中的介面,幾乎所有人都會訪問,而且會重複訪問
	ii)在一定時間內資料不會變化(或資料不變化)的介面
	iii)介面資料的時效性不是特別強(資料庫資料發生變化了,不是立即同步給前臺,驗後時間同步給前臺也沒事)
	注:理論上所有介面都可以建立快取,只要資料庫與快取資料同步及時
	
3)如何實現介面快取:主頁輪播圖介面
"""

views.py

from rest_framework.viewsets import ModelViewSet
from rest_framework import mixins
from . import models, serializers
from django.conf import settings
from rest_framework.response import Response

from django.core.cache import cache
class BannerViewSet(ModelViewSet, mixins.ListModelMixin):
    queryset = models.Banner.objects.filter(is_delete=False, is_show=True).order_by('-orders')[:settings.BANNER_COUNT]
    serializer_class = serializers.BannerSerializer

    # 有快取走快取,沒有快取走資料庫,然後同步給快取。介面自己實現
    def list(self, request, *args, **kwargs):
        banner_list = cache.get('banner_list')

        if not banner_list:
            print('走了資料庫')
            response = self.list(request, *args, **kwargs)
            banner_list = response.data
            cache.set('banner_list', banner_list, 86400)  # 存進快取中,快取配置了redis資料庫

        return Response(banner_list)

啟動服務

'''
1):先切換到celery_task所在的同級目錄(一般為根目錄下)
2):開一個終端(啟動服務):		celery worker -A celery_task -l info -P eventlet
3):再開一個終端(新增任務):	celery beat -A celery_task -l info
'''
# 注):-A  表示相對路徑,所以一定先進入celery_task所在包
	   -l 表示列印到日誌 info 級別

celery.py

"""
celery框架django專案工作流程
1)載入django配置環境
2)建立Celery框架物件app,配置broker和backend,得到的app就是worker
3)給worker對應的app新增可處理的任務函式,用include配置給worker的app
4)完成提供的任務的定時配置app.conf.beat_schedule
5)啟動celery服務,執行worker,執行任務
6)啟動beat服務,執行beat,新增任務

重點:由於採用了django的反射機制,使用celery.py所在的celery_task包必須放置專案的根目錄下
"""

# 一、載入django配置環境
import os
os.environ.setdefault("DJANGO_SETTINGS_MODULE", "luffyapi.settings.dev")

# 二、載入celery配置環境
from celery import Celery
broker = 'redis://:[email protected]:6379/1'
backend = 'redis://:[email protected]:6379/2'
# worker
app = Celery(broker=broker, backend=backend, include=['celery_task.tasks'])  # 外面的包名和檔名,一般都是固定


# 時區
app.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
app.conf.enable_utc = False

# 任務的定時配置
from datetime import timedelta
from celery.schedules import crontab
app.conf.beat_schedule = {
    # 定時任務名字
    'update_banner_cache': {
        'task': 'celery_task.tasks.update_banner_list',
        'args': (),
        'schedule': timedelta(seconds=10),  # 3秒一次
        # 'schedule': crontab(hour=8, day_of_week=1),  # 每週一早八點
        # 'schedule': crontab(minute=0, day_of_week=1),  # 每週一早八點
    }
}
'''
minute : 分鐘
hour :小時
day_of_week :禮拜
day_of_month:月
month_of_year:年
'''

'''
fall_task:任務名自定義
task:任務來源
args:任務引數
schedule:定時時間(秒)
'''

tasks.py

from .celery import app

from django.core.cache import cache
from home import models, serializers
from django.conf import settings
@app.task
def update_banner_list():
    queryset = models.Banner.objects.filter(is_delete=False, is_show=True).order_by('-orders')[:settings.BANNER_COUNT]
    banner_list = serializers.BannerSerializer(queryset, many=True).data
    # 拿不到request物件,所以頭像的連線base_url要自己組裝
    for banner in banner_list:
        banner['image'] = 'http://127.0.0.1:8000%s' % banner['image']

    cache.set('banner_list', banner_list, 86400)
    return True

補充:

funboost python萬能通用函式加速器 https://funboost.readthedocs.io/ 適應範圍廣泛,pip install funboost。

     celery對目錄層級檔名稱格式要求太高,只適合規劃新的專案,對不規則資料夾套用難度高。

     所以新手使用celery很仔細的建立資料夾名字、資料夾層級、python檔名字。

     所以網上的celery部落格教程雖然很多,但是並不能學會使用,因為要執行起來需要以下6個方面都掌握好,部落格文字很難表達清楚或者沒有寫全面以下6個方面。
     celery消費任務不執行或者報錯NotRegistered,與很多方面有關係,如果要別人排錯,至少要發以下6方面的截圖,因為與一下6點關係很大。

     1) 整個專案目錄結構,celery的目錄結構和任務函式位置,有很大影響

     2) @task入參 ,使用者有沒有主動設定裝飾器的入參 name,設定了和沒設定有很大不同,建議主動設定這個名字對函式名字和所處位置依賴減小

     3) celery的配置,task_queues(在3.xx叫 CELERY_QUEUES )和task_routes (在3.xx叫 task_routes)

     4) celery的配置 include (在3.xx叫 CELERY_INCLUDE)或者 imports (3.xx CELERY_IMPORTS)  或者 app.autodiscover_tasks的入參

     5) cmd命令列啟動引數 --queues=  的值

     6) 使用者在啟動cmd命令列時候,使用者所在的資料夾。

     在不規範的資料夾路徑下,使用celery難度很高,一般教程都沒教。
     [專案資料夾目錄格式不規範下的celery使用演示](https://github.com/ydf0509/celery_demo) 。

     此國產分散式函式排程框架 funboost python萬能通用函式加速器  https://funboost.readthedocs.io/   ,
     
     從用法呼叫難度,使用者所需程式碼量,超高併發效能,qps控頻精確程度,支援的中介軟體型別,任務控制方式,穩定程度等19個方面全方位超過celery,任何方面都是有過之而無不及 。
     
     釋出效能提高1000%,消費效能提高2000%
     
     pip install funboost