run_long_articles_job.sh 4.6 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133
  1. #!/usr/bin/env bash
  2. # =============================================================
  3. # 作者:Junhui Luo / 2025-07-14
  4. # 每分钟由系统 cron 触发一次,内部解析任务表达式决定是否执行
  5. # =============================================================
  6. ###################### 全局配置 ######################
  7. SCRIPT_DIR="/root/luojunhui/LongArticlesJob" # 工作目录
  8. LOG_DIR="${SCRIPT_DIR}/logs" # 日志根目录
  9. PYTHON_SCRIPT="long_articles_job.py" # 统一入口脚本
  10. CONDA_SH="/root/miniconda3/etc/profile.d/conda.sh"
  11. CONDA_ENV="tasks"
  12. LOG_RETENTION_DAYS=7 # 日志保存天数
  13. LOG_MAX_MB=100 # 单文件最大 MB,超过清空
  14. # 失败告警(自行实现:邮件、钉钉、Prometheus Pushgateway…)
  15. on_failure(){
  16. local task=$1
  17. local now=$(date '+%F %T')
  18. local timestamp=$(($(date +%s%N)/1000000))
  19. local url="https://open.feishu.cn/open-apis/bot/v2/hook/223b3d72-f2e8-40e0-9b53-6956e0ae7158"
  20. local content="定时任务失败:${task}\n时间:${now}"
  21. curl --request POST "${url}" \
  22. --header 'Content-Type: application/json' \
  23. --data-row "{\"msg_type\":\"interactive\",\"card\":{\"content\":\"${content}\"}}" \
  24. >/dev/null 2>&1
  25. }
  26. ###################### 任务定义 ######################
  27. # 语法: "分 时 日 月 周|任务名|日志模板"
  28. # 支持 *、*/n、a-b、a,b,c 以及它们组合
  29. TASKS=(
  30. "0 3 * * *|run_sph_video_crawler|${LOG_DIR}/run_sph_video_crawler/%Y-%m-%d.log"
  31. "0 6 * * *|run_piaoquan_video_crawler|${LOG_DIR}/run_piaoquan_video_crawler/%Y-%m-%d.log"
  32. "10 6 * * *|run_sohu_video_crawler|${LOG_DIR}/run_sohu_video_crawler/%Y-%m-%d.log"
  33. "20 11 * * *|top_article_generalize|${LOG_DIR}/top_article_generalize/%Y-%m-%d.log"
  34. "0 15 * * *|run_sph_video_crawler|${LOG_DIR}/run_sph_video_crawler/%Y-%m-%d.log"
  35. # 示例:每分钟执行
  36. # "* * * * *|heartbeat|${LOG_DIR}/heartbeat/%Y-%m-%d.log"
  37. )
  38. ###################### 工具函数 ######################
  39. log(){ printf '%s [%s] %s\n' "$(date '+%F %T')" "$1" "$2"; }
  40. cron_field_match(){ # 参数:字段 当前值
  41. local field=$1 now=$2
  42. [[ $field == "*" ]] && return 0
  43. IFS=',' read -ra parts <<< "$field"
  44. for p in "${parts[@]}"; do
  45. if [[ $p == "*/"* ]]; then # 步进 */n
  46. local step=${p#*/}
  47. (( now % step == 0 )) && return 0
  48. elif [[ $p == *-* ]]; then # 范围 a-b
  49. local start=${p%-*} end=${p#*-}
  50. (( now >= start && now <= end )) && return 0
  51. elif (( now == p )); then # 单值
  52. return 0
  53. fi
  54. done
  55. return 1
  56. }
  57. cron_match(){ # 参数:完整表达式
  58. read -r m h dom mon dow <<< "$1"
  59. local n_m=$(date +%-M) n_h=$(date +%-H) n_dom=$(date +%-d) \
  60. n_mon=$(date +%-m) n_dow=$(date +%-u) # 1(周一)…7(周日)
  61. cron_field_match "$m" "$n_m" && \
  62. cron_field_match "$h" "$n_h" && \
  63. cron_field_match "$dom" "$n_dom" && \
  64. cron_field_match "$mon" "$n_mon" && \
  65. cron_field_match "$dow" "$n_dow"
  66. }
  67. start_task(){ # 参数:任务名 日志文件
  68. local name=$1 logfile=$2
  69. mkdir -p "$(dirname "$logfile")"; touch "$logfile"
  70. # 若已在运行则跳过
  71. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" >/dev/null && {
  72. log INFO "任务 $name 已在运行" | tee -a "$logfile"; return; }
  73. (
  74. # 子 shell 中运行,便于 flock 持锁
  75. exec >>"$logfile" 2>&1
  76. log INFO "启动任务 $name"
  77. cd "$SCRIPT_DIR" || { log ERROR "进入 $SCRIPT_DIR 失败"; exit 1; }
  78. [[ -f $CONDA_SH ]] && { source "$CONDA_SH"; conda activate "$CONDA_ENV"; }
  79. nohup python3 "$PYTHON_SCRIPT" --task_name "$name" &
  80. sleep 1
  81. pgrep -f "python3 $PYTHON_SCRIPT --task_name $name" \
  82. && log SUCCESS "任务 $name 启动成功" \
  83. || { log ERROR "任务 $name 启动失败"; on_failure "$name"; }
  84. ) &
  85. }
  86. cleanup_logs(){
  87. # 过期删除
  88. find "$LOG_DIR" -type f -name '*.log' -mtime +"$LOG_RETENTION_DAYS" -delete
  89. # 超大清空
  90. find "$LOG_DIR" -type f -name '*.log' -size +"${LOG_MAX_MB}M" -exec \
  91. sh -c 'cat /dev/null > "$1"' sh {} \;
  92. }
  93. ###################### 主流程 ######################
  94. (
  95. # 全局锁,阻止同脚本并行
  96. exec 200>"$0.lock"
  97. flock -n 200 || exit 0
  98. mkdir -p "$LOG_DIR"
  99. MAIN_LOG=$(printf '%s/scheduler_%(%Y-%m-%d)T.log' "$LOG_DIR" -1)
  100. exec >>"$MAIN_LOG" 2>&1
  101. log INFO "====== 调度开始 ======"
  102. for task in "${TASKS[@]}"; do
  103. IFS='|' read -r cron_expr name log_tpl <<< "$task"
  104. cron_match "$cron_expr" || continue
  105. logfile=$(date +"$log_tpl") # 渲染 %Y-%m-%d
  106. start_task "$name" "$logfile"
  107. done
  108. cleanup_logs
  109. log INFO "====== 调度结束 ======"
  110. )
  111. exit 0