目录:

  • 1.1 Celery介绍
  • 1.2 celery 组件
  • 1.3 安装相关包 与 管理命令
  • 1.4 celery与Django执行异步任务
  • 1.5 在django中使用计划任务功能

1.1 Celery介绍     返回顶部

  参考博客:

  参考博客:  https://www.jianshu.com/p/027538ffb8c1

  1、celery应用举例

      1、Celery 是一个 基于python开发的分布式异步消息任务队列,通过它可以轻松的实现任务的异步处理,
          如果你的业务场景中需要用到异步任务,就可以考虑使用celery

      2、你想对100台机器执行一条批量命令,可能会花很长时间 ,但你不想让你的程序等着结果返回,而是给你返回 一个任务ID,
        你过一段时间只需要拿着这个任务id就可以拿到任务执行结果, 在任务执行ing进行时,你可以继续做其它的事情

      3、Celery 在执行任务时需要通过一个消息中间件来接收和发送任务消息,以及存储任务结果, 一般使用rabbitMQ or Redis

  2、Celery有以下优点

      1、简单:一单熟悉了celery的工作流程后,配置和使用还是比较简单的

      2、高可用:当任务执行失败或执行过程中发生连接中断,celery 会自动尝试重新执行任务

      3、快速:一个单进程的celery每分钟可处理上百万个任务

      4、灵活: 几乎celery的各个组件都可以被扩展及自定制

  3、Celery基本工作流程图

      

Django apscheduler 配置redis_数据库

    user:用户程序,用于告知celery去执行一个任务。
    broker: 存放任务(依赖RabbitMQ或Redis,进行存储)
    worker:执行任务

  4、Celery 特性 

      1)方便查看定时任务的执行情况, 如 是否成功, 当前状态, 执行任务花费的时间等.

      2)可选 多进程, Eventlet 和 Gevent 三种模型并发执行.

      3)Celery 是语言无关的.它提供了python 等常见语言的接口支持.

1.2 celery 组件     返回顶部

  1、Celery 扮演生产者和消费者的角色

Celery Beat :

Celery Worker :

Broker :

Producer : 任务生产者. 调用 Celery API , 函数或者装饰器, 而产生任务并交给任务队列处理的都是任务生产者.

Result Backend :

  2、celery架构图

      

Django apscheduler 配置redis_django_02

  3. 产生任务的方式 

      1) 发布者发布任务(WEB 应用)

      2) 任务调度按期发布任务(定时任务)

  4. celery 依赖三个库: 这三个库, 都由 Celery 的开发者开发和维护.

      billiard : 基于 Python2.7 的 multisuprocessing 而改进的库, 主要用来提高性能和稳定性.

      librabbitmp : C 语言实现的 Python 客户端

      kombu : Celery 自带的用来收发消息的库, 提供了符合 Python 语言习惯的, 使用 AMQP 协议的高级借口.

1.3 安装相关包 与 管理命令     返回顶部

  1、安装相关软件包



pip3 install Django==2.0.4
pip3 install celery==4.3.0
pip3 install redis==3.2.1
pip3 install  django-celery==3.1.17
pip3 install ipython==7.6.1 

find ./ -type f | xargs sed -i 's/\r$//g'  # 批量将当前文件夹下所有文件装换成unix格式



  2、celery管理



celery multi start w1 w2 -A celery_pro -l info     #一次性启动w1,w2两个worker
celery -A celery_pro status                        #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro              #停止w1,w2两个worker

celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭所有celery进程



django_celery_beat管理



celery -A celery_test beat -l info -S django                   #启动心跳任务
ps -ef | grep -E "celery -A celery_test beat" | grep -v grep| awk '{print $2}' | xargs kill -TERM &> /dev/null  # 杀死心跳所有进程



1.3 安装相关包 与 管理命令     返回顶部

  1、在Django中使用celery介绍(celery无法再windows下运行)

    1)在Django中使用celery时,celery文件必须以tasks.py

    2)Django会自动到每个APP中找tasks.py文件

  2、创建一个Django项目celery_test,和app01

  3、在与项目同名的目录下创建celery.py




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

# -*- coding: utf-8 -*-
from __future__ import absolute_import
import os
from celery import Celery

# 只要是想在自己的脚本中访问Django的数据库等文件就必须配置Django的环境变量
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_test.settings')

# app名字
app = Celery('celery_test')

# 配置celery
class Config:
    BROKER_URL = 'redis://192.168.56.11:6379'
    CELERY_RESULT_BACKEND = 'redis://192.168.56.11:6379'

app.config_from_object(Config)
# 到各个APP里自动发现tasks.py文件
app.autodiscover_tasks()


celery.py


 init.py 文件中添加下面内容




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals

# 告诉Django在启动时别忘了检测我的celery文件
from .celery import app as celery_ap
__all__ = ['celery_app']


__init__.py


  5、创建app01/tasks.py文件




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals
from celery import shared_task
import time

# 这里不再使用@app.task,而是用@shared_task,是指定可以在其他APP中也可以调用这个任务
@shared_task
def add(x,y):
    print('########## running add #####################')
    return x + y

@shared_task
def minus(x,y):
    time.sleep(30)
    print('########## running minus #####################')
    return x - y


app01/tasks.py


  6、将celery_test这个Django项目拷贝到centos7.3的django_test文件夹中

  7、保证启动了redis-server

  8、启动一个celery的worker



celery multi start w1 w2 -A celery_pro -l info     #一次性启动w1,w2两个worker
celery -A celery_pro status                        #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro              #停止w1,w2两个worker

celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭所有celery进程



  9、测试celery




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

./manage.py shell
import tasks
t1 = tasks.minus.delay(5,3)
t2 = tasks.add.delay(3,4)
t1.get()
t2.get()


测试



1.5 在django中使用计划任务功能     返回顶部

  1、在Django中使用celery的定时任务需要安装django-celery-beat

      pip3 install django-celery-beat

  2、在Django的settings中注册django_celery_beat



INSTALLED_APPS = (
    ...,
    'django_celery_beat',
)



  3、执行创建表命令

      python3 manage.py makemigrations

      python3 manage.py migrate

  4、在与项目同名的目录下的celery.py中添加定时任务




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

# -*- coding: utf-8 -*-
from __future__ import absolute_import
import os
from celery import Celery
from celery.schedules import crontab
from datetime import timedelta
from kombu import Queue

# 只要是想在自己的脚本中访问Django的数据库等文件就必须配置Django的环境变量
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'celery_test.settings')

# app名字
app = Celery('celery_test')

# 配置celery
class Config:
    BROKER_URL = 'redis://192.168.56.11:6379'  # broker
    CELERY_RESULT_BACKEND = 'redis://192.168.56.11:6379'  # backend
    CELERY_ACCEPT_CONTENT = ['application/json']  # 指定任务接受的内容类型(序列化)
    CELERY_TASK_SERIALIZER = 'json'  # 任务的序列化方式
    CELERY_RESULT_SERIALIZER = 'json'  # 任务执行结果的序列化方式
    CELERY_TIMEZONE = 'Asia/Shanghai'  # 时区设置,计划任务需要,推荐 Asia/Shanghai
    ENABLE_UTC = False  # 不使用UTC时区
    CELERY_TASK_RESULT_EXPIRES = 60 * 60  # celery任务执行结果的超时时间
    CELERY_ANNOTATIONS = {'*': {'rate_limit': '500/s'}}
    # CELERYD_PREFETCH_MULTIPLIER = 10  # 每次取任务的数量
    CELERYD_MAX_TASKS_PER_CHILD = 16  # 每个worker执行了多少任务就会死掉,防止内存泄漏

app.config_from_object(Config)
app.autodiscover_tasks()

#crontab config
app.conf.update(
    CELERYBEAT_SCHEDULE = {
        # 每隔3s执行一次add函数
        'every-3-min-add': {
            'task': 'app01.tasks.add',
            'schedule': timedelta(seconds=10)
        },
        # 每天下午15:420执行
        'add-every-day-morning@14:50': {
            'task': 'app01.tasks.minus',
            'schedule': crontab(hour=19, minute=50, day_of_week='*/1'),
        },
    },
)

# kombu : Celery 自带的用来收发消息的库, 提供了符合 Python 语言习惯的, 使用 AMQP 协议的高级接口
Queue('transient', routing_key='transient',delivery_mode=1)


celery.py


  5、app01/tasks.py  




Django apscheduler 配置redis_redis_03

Django apscheduler 配置redis_python_04

# -*- coding:utf8 -*-
from __future__ import absolute_import, unicode_literals
from celery import shared_task
import time

# 这里不再使用@app.task,而是用@shared_task,是指定可以在其他APP中也可以调用这个任务
@shared_task
def add():
    print('########## running add #####################')
    return 'add'

@shared_task
def minus():
    time.sleep(30)
    print('########## running minus #####################')
    return 'minus'


app01/tasks.py


  6、管理命令



'''1、celery管理 '''
celery  multi start celery_test -A celery_test -l debug --autoscale=50,5        # celery并发数:最多50个,最少5个
ps auxww|grep "celery worker"|grep -v grep|awk '{print $2}'|xargs kill -9       # 关闭所有celery进程

'''2、django-celery-beat心跳服务管理 '''
celery -A celery_test beat -l info -S django                   #启动心跳任务
ps -ef | grep -E "celery -A celery_test beat" | grep -v grep| awk '{print $2}' | xargs kill -TERM &> /dev/null  # 杀死心跳所有进程