run_long_articles_job.sh 5.2 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145
  1. #!/usr/bin/env bash
  2. # =============================================================
  3. # 作者:Junhui Luo / 2025-07-14
  4. # 每分钟由系统 cron 触发一次,内部解析任务表达式决定是否执行
  5. # =============================================================
  6. ###################### 全局配置 ######################
  7. SCRIPT_DIR="/root/luojunhui/LongArticlesJob" # 工作目录
  8. LOG_DIR="${SCRIPT_DIR}/logs" # 日志根目录
  9. PYTHON_SCRIPT="long_articles_job.py" # 统一入口脚本
  10. CONDA_SH="/root/miniconda3/etc/profile.d/conda.sh"
  11. CONDA_ENV="tasks"
  12. LOG_RETENTION_DAYS=7 # 日志保存天数
  13. LOG_MAX_MB=100 # 单文件最大 MB,超过清空
  14. # 失败告警(自行实现:邮件、钉钉、Prometheus Pushgateway…)
  15. on_failure(){
  16. local task=$1
  17. local now=$(date '+%F %T')
  18. local url="https://open.feishu.cn/open-apis/bot/v2/hook/223b3d72-f2e8-40e0-9b53-6956e0ae7158"
  19. local content="定时任务失败:${task}\n时间:${now}"
  20. curl --request POST "${url}" \
  21. --header 'Content-Type: application/json' \
  22. --data-row "{\"msg_type\":\"interactive\",\"card\":{\"content\":\"${content}\"}}" \
  23. >/dev/null 2>&1
  24. }
  25. ###################### 任务定义 ######################
  26. # 语法: "分 时 日 月 周|任务名|日志模板"
  27. # 支持 *、*/n、a-b、a,b,c 以及它们组合
  28. TASKS=(
  29. # 视频号视频抓取
  30. "0 3,15 * * *|run_sph_video_crawler|${LOG_DIR}/run_sph_video_crawler/%Y-%m-%d.log"
  31. # 票圈站内视频抓取
  32. "0 6 * * *|run_piaoquan_video_crawler|${LOG_DIR}/run_piaoquan_video_crawler/%Y-%m-%d.log"
  33. # 搜狐视频抓取
  34. "10 6 * * *|run_sohu_video_crawler|${LOG_DIR}/run_sohu_video_crawler/%Y-%m-%d.log"
  35. # top文章泛化作为供给
  36. "20 11 * * *|top_article_generalize|${LOG_DIR}/top_article_generalize/%Y-%m-%d.log"
  37. # 校验kimi剩余额度
  38. "30 * * * *|run_check_kimi_balance|${LOG_DIR}/run_check_kimi_balance/%Y-%m-%d.log"
  39. # 服务号数据回收
  40. "0 11,17 * * *|run_fwh_data_manager|${LOG_DIR}/run_fwh_data_manager/%Y-%m-%d.log"
  41. # 标题相似度任务
  42. "*/10 * * * *|run_title_similarity_task|${LOG_DIR}/run_title_similarity_task/%Y-%m-%d.log"
  43. # 头条视频抓取
  44. "0 4,16,20 * * *|run_toutiao_video_crawler|${LOG_DIR}/run_toutiao_video_crawler/%Y-%m-%d.log"
  45. # 百度视频抓取
  46. "20 0,12 * * *|run_baidu_video_crawler|${LOG_DIR}/run_baidu_video_crawler/%Y-%m-%d.log"
  47. # 外部服务号监测
  48. "0 10,16 * * *|run_outside_server_accounts_monitor|${LOG_DIR}/run_outside_server_accounts_monitor/%Y-%m-%d.log"
  49. )
  50. ###################### 工具函数 ######################
  51. log(){ printf '%s [%s] %s\n' "$(date '+%F %T')" "$1" "$2"; }
  52. cron_field_match(){ # 参数:字段 当前值
  53. local field=$1 now=$2
  54. [[ $field == "*" ]] && return 0
  55. IFS=',' read -ra parts <<< "$field"
  56. for p in "${parts[@]}"; do
  57. if [[ $p == "*/"* ]]; then # 步进 */n
  58. local step=${p#*/}
  59. (( now % step == 0 )) && return 0
  60. elif [[ $p == *-* ]]; then # 范围 a-b
  61. local start=${p%-*} end=${p#*-}
  62. (( now >= start && now <= end )) && return 0
  63. elif (( now == p )); then # 单值
  64. return 0
  65. fi
  66. done
  67. return 1
  68. }
  69. cron_match(){ # 参数:完整表达式
  70. read -r m h dom mon dow <<< "$1"
  71. local n_m=$(date +%-M) n_h=$(date +%-H) n_dom=$(date +%-d) \
  72. n_mon=$(date +%-m) n_dow=$(date +%-u) # 1(周一)…7(周日)
  73. cron_field_match "$m" "$n_m" && \
  74. cron_field_match "$h" "$n_h" && \
  75. cron_field_match "$dom" "$n_dom" && \
  76. cron_field_match "$mon" "$n_mon" && \
  77. cron_field_match "$dow" "$n_dow"
  78. }
  79. start_task(){ # 参数:任务名 日志文件
  80. local name=$1 logfile=$2
  81. mkdir -p "$(dirname "$logfile")"; touch "$logfile"
  82. # 若已在运行则跳过
  83. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" >/dev/null && {
  84. log INFO "任务 $name 已在运行" | tee -a "$logfile"; return; }
  85. (
  86. # 子 shell 中运行,便于 flock 持锁
  87. exec >>"$logfile" 2>&1
  88. log INFO "启动任务 $name"
  89. cd "$SCRIPT_DIR" || { log ERROR "进入 $SCRIPT_DIR 失败"; exit 1; }
  90. [[ -f $CONDA_SH ]] && { source "$CONDA_SH"; conda activate "$CONDA_ENV"; }
  91. nohup python3 "$PYTHON_SCRIPT" --task_name "$name" &
  92. sleep 1
  93. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" \
  94. && log SUCCESS "任务 $name 启动成功" \
  95. || { log ERROR "任务 $name 启动失败"; on_failure "$name"; }
  96. ) &
  97. }
  98. cleanup_logs(){
  99. # 过期删除
  100. find "$LOG_DIR" -type f -name '*.log' -mtime +"$LOG_RETENTION_DAYS" -delete
  101. # 超大清空
  102. find "$LOG_DIR" -type f -name '*.log' -size +"${LOG_MAX_MB}M" -exec \
  103. sh -c 'cat /dev/null > "$1"' sh {} \;
  104. }
  105. ###################### 主流程 ######################
  106. (
  107. # 全局锁,阻止同脚本并行
  108. exec 200>"$0.lock"
  109. flock -n 200 || exit 0
  110. mkdir -p "$LOG_DIR"
  111. MAIN_LOG="${LOG_DIR}/scheduler_$(date +%Y-%m-%d).log"
  112. exec >>"$MAIN_LOG" 2>&1
  113. log INFO "====== 调度开始 ======"
  114. for task in "${TASKS[@]}"; do
  115. IFS='|' read -r cron_expr name log_tpl <<< "$task"
  116. cron_match "$cron_expr" || continue
  117. logfile=$(date +"$log_tpl") # 渲染 %Y-%m-%d
  118. start_task "$name" "$logfile"
  119. done
  120. cleanup_logs
  121. log INFO "====== 调度结束 ======"
  122. )
  123. exit 0