async_consumer.py 6.2 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158
  1. import asyncio
  2. import json
  3. import traceback
  4. from typing import List
  5. import signal
  6. from core.utils.log.logger_manager import LoggerManager
  7. from core.utils.trace_utils import generate_trace_id
  8. from services.async_mysql_service import AsyncMysqlService
  9. from spiders.spider_registry import get_spider_class
  10. logger = LoggerManager.get_logger()
  11. aliyun_logger = LoggerManager.get_aliyun_logger()
  12. async def async_handle_topic(topic: str, stop_event: asyncio.Event):
  13. """
  14. 单个 topic 的消费逻辑,运行在协程中:
  15. - 从 MQ 中消费消息(单条处理,处理完再拉取下一条);
  16. - 根据消息内容执行对应爬虫;
  17. - 使用异步数据库服务查询配置;
  18. - 记录日志、确认消息。
  19. """
  20. # 每个 topic 创建独立的 consumer 实例(使用优化后的 AsyncRocketMQConsumer)
  21. from services.async_mq_consumer import AsyncRocketMQConsumer
  22. consumer = AsyncRocketMQConsumer(topic_name=topic, group_id=topic)
  23. async def handle_single_message(message):
  24. """处理单条消息的业务逻辑(不含拉取和循环)"""
  25. trace_id = generate_trace_id()
  26. try:
  27. payload = json.loads(message.message_body)
  28. task_id = payload["id"]
  29. logger.info(f"{trace_id} - 接收到任务消息: {task_id}")
  30. aliyun_logger.logging(
  31. code="1000",
  32. message="任务接收成功",
  33. data=payload,
  34. trace_id=trace_id,
  35. account=topic
  36. )
  37. # 从数据库查询配置
  38. async with AsyncMysqlService() as mysql:
  39. user_list = await mysql.get_user_list(task_id)
  40. rule_dict = await mysql.get_rule_dict(task_id)
  41. # 执行爬虫任务
  42. CrawlerClass = get_spider_class(topic)
  43. crawler = CrawlerClass(
  44. rule_dict=rule_dict,
  45. user_list=user_list,
  46. trace_id=trace_id
  47. )
  48. await crawler.run() # 爬虫成功执行后再确认消息
  49. # 确认消息(单条消息处理成功后才 Ack)
  50. await consumer.ack_message(message.receipt_handle)
  51. logger.info(f"{trace_id} - 任务 {task_id} 执行成功并已 Ack")
  52. aliyun_logger.logging(
  53. code="1010",
  54. message="任务执行成功",
  55. trace_id=trace_id,
  56. data={"task_id": task_id, "topic": topic},
  57. account=topic
  58. )
  59. except Exception as e:
  60. logger.error(f"{trace_id} - 任务处理失败: {e} \n {traceback.format_exc()}")
  61. aliyun_logger.logging(
  62. code="9001",
  63. message=f"处理消息失败: {str(e)} \n {traceback.format_exc()}",
  64. trace_id=trace_id,
  65. data={
  66. "error_type": type(e).__name__,
  67. "stack_trace": traceback.format_exc(),
  68. "message_body": message.message_body
  69. },
  70. account=topic
  71. )
  72. # 处理失败不 Ack,消息会被 MQ 重新投递(依赖 MQ 的重试机制)
  73. # 独立的消费循环:拉取消息并调用处理函数
  74. async def consume_loop():
  75. logger.info(f"[{topic}] 启动消费循环,开始拉取消息...")
  76. while not stop_event.is_set(): # 监听停止信号,支持优雅退出
  77. try:
  78. # 拉取单条消息(依赖优化后的 receive_message,无消息时返回 None 不报错)
  79. message = await consumer.receive_message()
  80. if message:
  81. # 有消息则处理,处理完成后再进入下一次循环
  82. await handle_single_message(message)
  83. else:
  84. # 无消息时短暂休眠,避免频繁空轮询
  85. await asyncio.sleep(1)
  86. except Exception as e:
  87. # 非消息处理的异常(如 MQ 连接失败),记录并重试
  88. logger.error(f"[{topic}] 消费循环异常: {e}", exc_info=True)
  89. aliyun_logger.logging(
  90. code="9002",
  91. message=f"{topic} 消费循环异常,即将重试: {str(e)}",
  92. data={"error_type": type(e).__name__, "stack_trace": traceback.format_exc()},
  93. account=topic
  94. )
  95. await asyncio.sleep(5) # 异常后延迟重试,减轻服务压力
  96. logger.info(f"[{topic}] 消费循环已停止(收到退出信号)")
  97. # 启动消费循环(这是消费逻辑的入口)
  98. await consume_loop()
  99. async def run_all_topics(topics: List[str]):
  100. stop_event = asyncio.Event()
  101. loop = asyncio.get_running_loop()
  102. def shutdown():
  103. """处理停止信号(如 Ctrl+C),触发优雅退出"""
  104. logger.warning("[系统] 收到停止信号,准备优雅退出...")
  105. aliyun_logger.logging(
  106. code="1600",
  107. message="[系统] 收到停止信号,准备优雅退出...",
  108. )
  109. stop_event.set()
  110. # 注册信号处理(支持 Ctrl+C 和 kill 命令)
  111. for sig in [signal.SIGINT, signal.SIGTERM]:
  112. loop.add_signal_handler(sig, shutdown)
  113. # 为每个 topic 创建独立协程任务
  114. tasks = [asyncio.create_task(async_handle_topic(topic, stop_event)) for topic in topics]
  115. await stop_event.wait() # 等待退出信号
  116. # 取消所有任务并等待结束
  117. logger.warning(f"[系统] 正在取消所有消费任务...")
  118. for task in tasks:
  119. task.cancel()
  120. # 收集任务结果,忽略取消异常
  121. results = await asyncio.gather(*tasks, return_exceptions=True)
  122. for idx, result in enumerate(results):
  123. if isinstance(result, Exception) and not isinstance(result, asyncio.CancelledError):
  124. logger.error(f"[系统] 任务 {topics[idx]} 异常退出: {result}")
  125. logger.warning(f"[系统] 所有任务已退出,进程已关闭...")
  126. aliyun_logger.logging(
  127. code="1602",
  128. message="[系统] 所有任务已退出,进程已关闭...",
  129. data={"task_count": len(tasks)}
  130. )
  131. def handle_topic_group(topics: List[str]):
  132. """子进程入口函数:启动异步事件循环处理该组 topics。"""
  133. asyncio.run(run_all_topics(topics))