[英]Everytime Celery is restarted all the scheduled tasks are acknowledged
[英]Celery not processing tasks everytime
我對 celery 有以下配置
celery = Celery(__name__,
broker=os.environ.get('CELERY_BROKER_URL', 'redis://'),
backend=os.environ.get('CELERY_BROKER_URL', 'redis://'))
celery.config_from_object(APP_SETTINGS)
ssl = celery.conf.get('REDIS_SSL', True)
r = redis.StrictRedis(REDIS_BROKER, int(REDIS_BROKER_PORT), 0,
charset='utf-8', decode_responses=True, ssl=ssl)
db_uri = celery.conf.get('SQLALCHEMY_DATABASE_URI')
@celery.task
def process_task(data):
#some code here
我在 API 端點內調用進程任務,如process_task.delay(data)
有時它正在處理任務,有時不是。
有人可以幫我解決這個問題嗎?
我正在運行像celery worker -A api.celery --loglevel=DEBUG --concurrency=10
這樣的工人
一旦所有的工作進程都忙起來,新任務就會坐在隊列中等待下一個空閑的工作進程開始任務。 這很可能是您認為這是“不是每次都處理任務”的原因。 Go 通過 Celery 文檔的監控和管理部分了解如何監控您的 Celery 集群。 對於初學者,請執行celery worker -A api.celery inspect active
以檢查當前正在運行的任務。
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.