run_long_articles_job.sh 4.6 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132
  1. #!/usr/bin/env bash
  2. # =============================================================
  3. # 作者:Junhui Luo / 2025-07-14
  4. # 每分钟由系统 cron 触发一次,内部解析任务表达式决定是否执行
  5. # =============================================================
  6. ###################### 全局配置 ######################
  7. SCRIPT_DIR="/root/luojunhui/LongArticlesJob" # 工作目录
  8. LOG_DIR="${SCRIPT_DIR}/logs" # 日志根目录
  9. PYTHON_SCRIPT="long_articles_job.py" # 统一入口脚本
  10. CONDA_SH="/root/miniconda3/etc/profile.d/conda.sh"
  11. CONDA_ENV="tasks"
  12. LOG_RETENTION_DAYS=7 # 日志保存天数
  13. LOG_MAX_MB=100 # 单文件最大 MB,超过清空
  14. # 失败告警(自行实现:邮件、钉钉、Prometheus Pushgateway…)
  15. on_failure(){
  16. local task=$1
  17. local now=$(date '+%F %T')
  18. local url="https://open.feishu.cn/open-apis/bot/v2/hook/223b3d72-f2e8-40e0-9b53-6956e0ae7158"
  19. local content="定时任务失败:${task}\n时间:${now}"
  20. curl --request POST "${url}" \
  21. --header 'Content-Type: application/json' \
  22. --data-row "{\"msg_type\":\"interactive\",\"card\":{\"content\":\"${content}\"}}" \
  23. >/dev/null 2>&1
  24. }
  25. ###################### 任务定义 ######################
  26. # 语法: "分 时 日 月 周|任务名|日志模板"
  27. # 支持 *、*/n、a-b、a,b,c 以及它们组合
  28. TASKS=(
  29. "0 3 * * *|run_sph_video_crawler|${LOG_DIR}/run_sph_video_crawler/%Y-%m-%d.log"
  30. "0 6 * * *|run_piaoquan_video_crawler|${LOG_DIR}/run_piaoquan_video_crawler/%Y-%m-%d.log"
  31. "10 6 * * *|run_sohu_video_crawler|${LOG_DIR}/run_sohu_video_crawler/%Y-%m-%d.log"
  32. "20 11 * * *|top_article_generalize|${LOG_DIR}/top_article_generalize/%Y-%m-%d.log"
  33. "0 15 * * *|run_sph_video_crawler|${LOG_DIR}/run_sph_video_crawler/%Y-%m-%d.log"
  34. # 示例:每分钟执行
  35. # "* * * * *|heartbeat|${LOG_DIR}/heartbeat/%Y-%m-%d.log"
  36. )
  37. ###################### 工具函数 ######################
  38. log(){ printf '%s [%s] %s\n' "$(date '+%F %T')" "$1" "$2"; }
  39. cron_field_match(){ # 参数:字段 当前值
  40. local field=$1 now=$2
  41. [[ $field == "*" ]] && return 0
  42. IFS=',' read -ra parts <<< "$field"
  43. for p in "${parts[@]}"; do
  44. if [[ $p == "*/"* ]]; then # 步进 */n
  45. local step=${p#*/}
  46. (( now % step == 0 )) && return 0
  47. elif [[ $p == *-* ]]; then # 范围 a-b
  48. local start=${p%-*} end=${p#*-}
  49. (( now >= start && now <= end )) && return 0
  50. elif (( now == p )); then # 单值
  51. return 0
  52. fi
  53. done
  54. return 1
  55. }
  56. cron_match(){ # 参数:完整表达式
  57. read -r m h dom mon dow <<< "$1"
  58. local n_m=$(date +%-M) n_h=$(date +%-H) n_dom=$(date +%-d) \
  59. n_mon=$(date +%-m) n_dow=$(date +%-u) # 1(周一)…7(周日)
  60. cron_field_match "$m" "$n_m" && \
  61. cron_field_match "$h" "$n_h" && \
  62. cron_field_match "$dom" "$n_dom" && \
  63. cron_field_match "$mon" "$n_mon" && \
  64. cron_field_match "$dow" "$n_dow"
  65. }
  66. start_task(){ # 参数:任务名 日志文件
  67. local name=$1 logfile=$2
  68. mkdir -p "$(dirname "$logfile")"; touch "$logfile"
  69. # 若已在运行则跳过
  70. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" >/dev/null && {
  71. log INFO "任务 $name 已在运行" | tee -a "$logfile"; return; }
  72. (
  73. # 子 shell 中运行,便于 flock 持锁
  74. exec >>"$logfile" 2>&1
  75. log INFO "启动任务 $name"
  76. cd "$SCRIPT_DIR" || { log ERROR "进入 $SCRIPT_DIR 失败"; exit 1; }
  77. [[ -f $CONDA_SH ]] && { source "$CONDA_SH"; conda activate "$CONDA_ENV"; }
  78. nohup python3 "$PYTHON_SCRIPT" --task_name "$name" &
  79. sleep 1
  80. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" \
  81. && log SUCCESS "任务 $name 启动成功" \
  82. || { log ERROR "任务 $name 启动失败"; on_failure "$name"; }
  83. ) &
  84. }
  85. cleanup_logs(){
  86. # 过期删除
  87. find "$LOG_DIR" -type f -name '*.log' -mtime +"$LOG_RETENTION_DAYS" -delete
  88. # 超大清空
  89. find "$LOG_DIR" -type f -name '*.log' -size +"${LOG_MAX_MB}M" -exec \
  90. sh -c 'cat /dev/null > "$1"' sh {} \;
  91. }
  92. ###################### 主流程 ######################
  93. (
  94. # 全局锁,阻止同脚本并行
  95. exec 200>"$0.lock"
  96. flock -n 200 || exit 0
  97. mkdir -p "$LOG_DIR"
  98. MAIN_LOG="${LOG_DIR}/scheduler_$(date +%Y-%m-%d).log"
  99. exec >>"$MAIN_LOG" 2>&1
  100. log INFO "====== 调度开始 ======"
  101. for task in "${TASKS[@]}"; do
  102. IFS='|' read -r cron_expr name log_tpl <<< "$task"
  103. cron_match "$cron_expr" || continue
  104. logfile=$(date +"$log_tpl") # 渲染 %Y-%m-%d
  105. start_task "$name" "$logfile"
  106. done
  107. cleanup_logs
  108. log INFO "====== 调度结束 ======"
  109. )
  110. exit 0