1 参照博客 https://www.cnblogs.com/xiaonq/p/9303941.html#i1
1 创建celery_pro包 # 可在任意文件下
2 在 celery_pro 下创建 celery.py 文件
# -*- coding:utf8 -*- from __future__ import absolute_import, unicode_literals #1. absolute_import 可以使导入的celery是python绝对路基的celery模块,不是当前我们创建的celery.py #2. unicode_literals 模块可能是python2和3兼容的,不知道 from celery import Celery # from .celery import Celery #这样才是导入当前目录下的celery app = Celery(‘proj‘, broker=‘redis://localhost‘, backend=‘redis://localhost‘, include=[‘celery_pro.tasks‘, ]) #celery-pro是存放celery文件的文件夹名字 #实例化时可以添加下面这个属性 app.conf.update( result_expires=3600, #执行结果放到redis里,一个小时没人取就丢弃 ) import time # 配置定时任务:每5秒钟执行 调用一次celery_pro下tasks.py文件中的add函数 app.conf.beat_schedule = { ‘add-every-5-seconds‘: { ‘task‘: ‘celery_pro.tasks.add‘, ‘schedule‘: 5.0, ‘args‘: (16, 16), }, } app.conf.timezone = ‘UTC‘ if __name__ == ‘__macelery -A celery_pro beat -l infoin__‘: app.start()
3 创建 tasks.py 文件
# -*- coding:utf8 -*- from __future__ import absolute_import, unicode_literals from .celery import app #从当前目录导入app #写一个add函数 @app.task def add(x, y): print(‘执行函数‘) return x + y
1、 启动一个worker:在celery_pro外层目录下执行
celery -A celery_pro worker -l info
2、 启动任务调度器 celery beat
celery -A celery_pro beat -l info
3、执行效果
看到celery运行日志中每5秒回返回一次 add函数执行结果
3、启动celery的worker:每台机器可以启动8个worker
1、在pythondir目录下启动 /pythondir/celery_pro/ 目录下的worker
celery -A celery_pro worker -l info
2、后台启动worker:/pythondir/celery_pro/目录下执行
celery multi start w1 -A celery_pro -l info #在后台启动w1这个worker
celery multi start w1 w2 -A celery_pro -l info #一次性启动w1,w2两个worker
celery -A celery_pro status #查看当前有哪些worker在运行
celery multi stop w1 w2 -A celery_pro #停止w1,w2两个worker
celery multi restart w1 w2 -A celery_pro #重启w1,w2两个worker
原文:https://www.cnblogs.com/zhangshijiezsj/p/14099467.html