[英]Django Celery tasks queue
我有一个应用程序使用django使用redis和celery来完成一些异步任务。 我正在使用celery任务来执行一些存储过程。 此SP需要5分钟到30分钟才能完全执行(取决于记录量)。 一切正常。 但是我需要能够多次执行任务。 但是现在,当我运行任务并且另一个用户也运行该任务时,这两个任务会同时执行。 我需要任务进入队列并仅在第一个任务完成时执行。 我的settings.py:
BROKER_URL = 'redis://localhost:6379/0'
CELERY_IMPORTS = ("pc.tasks", )
CELERY_ACCEPT_CONTENT = ['json']
CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
CELERY_RESULT_BACKEND='djcelery.backends.cache:CacheBackend'
task.py
from __future__ import absolute_import
from celery.decorators import task
from celery import task, shared_task
from .models import Servicio, Proveedor, Lectura_FTP, Actualizar_Descarga
from .models import Lista_Archivos, Lista_Final, Buscar_Conci
@task
def carga_ftp():
tabla = Proc_Carga()
sp = tabla.carga()
return None
@task
def conci(idprov,pfecha):
conci = Buscar_Conci()
spconc = conci.buscarcon(idprov,pfecha)
我以这种方式在我的视图中调用任务:
conci.delay(prov,DateV);
我如何创建或设置Taks的队列列表,而Everry任务仅在之前的Taks完成后才执行
提前致谢
您可以限制工作人员的任务,由于您的原因,我认为您一次只需要一名工作人员,因此在致电djcelery时只需启动一名工作人员即可。
python manage.py celery worker -B --concurrency=1
例如,您可以使用锁(来自我的一个项目):
def send_queued_emails(*args, **kwargs):
from mailer.models import Message
my_lock = redis.Redis().lock("send_mail")
try:
have_lock = my_lock.acquire(blocking=False)
if have_lock:
logging.info("send_mail lock ACQUIRED")
from celery import group
if Message.objects.non_deferred().all().count() > 0:
t = EmailSenderTask()
g = (group(t.s(message=msg) for msg in Message.objects.non_deferred().all()[:200]) | release_redis_lock.s(lock_name="send_mail"))
g()
else:
logging.info("send_mail lock RELEASED")
my_lock.release()
else:
logging.info("send_mail lock NOT ACQUIRED")
except redis.ResponseError as e:
logging.error("Redis throw exception : {}".format(e))
except:
my_lock.release()
logging.error("send_mail lock RELEASED because of exception")
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.