process_title.py 32 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707
  1. import json
  2. import time
  3. import traceback
  4. from typing import Optional, List, Dict, Tuple
  5. from applications.api import fetch_deepseek_completion
  6. from applications.utils import yield_batch
  7. from applications.tasks.llm_tasks.prompts import extract_article_features
  8. class Const:
  9. # title rewrite status
  10. TITLE_REWRITE_INIT_STATUS = 0
  11. TITLE_REWRITE_SUCCESS_STATUS = 1
  12. TITLE_REWRITE_FAIL_STATUS = 99
  13. TITLE_REWRITE_LOCK_STATUS = 101
  14. # article status
  15. ARTICLE_AUDIT_PASSED_STATUS = 1
  16. ARTICLE_POSITIVE_STATUS = 0
  17. # title useful status
  18. TITLE_USEFUL_STATUS = 1
  19. # prompt version
  20. PROMPT_VERSION = "xx_250228" # 信欣2025-02-28提供
  21. # block expire time 1h
  22. TITLE_REWRITE_LOCK_TIME = 60 * 60
  23. # task status
  24. INIT_STATUS = 0
  25. PROCESSING_STATUS = 1
  26. SUCCESS_STATUS = 2
  27. FAIL_STATUS = 99
  28. # max processing time
  29. MAX_PROCESSING_TIME = 3600
  30. # article_status
  31. ARTICLE_INIT_STATUS = 1
  32. ARTICLE_PUBLISHED_STATUS = 2
  33. ARTICLE_BAD_STATUS = 0
  34. # limit score
  35. LIMIT_SCORE = 0.4
  36. BATCH_SIZE = 20
  37. PROCESS_NUM = 1000
  38. class TitleProcess(Const):
  39. def __init__(self, pool, aliyun_log, trace_id):
  40. self.pool = pool
  41. self.aliyun_log = aliyun_log
  42. self.trace_id = trace_id
  43. @staticmethod
  44. def generate_title_rewrite_prompt(ori_title: str) -> str:
  45. """
  46. 生成prompt
  47. """
  48. prompt = f"""
  49. 请将以下标题改写成适合公众号中小程序点击和传播的文章标题,文章标题的写作规范如下,请学习后进行文章标题的编写。直接输出最终的文章标题,文章标题撰写规范如下:
  50. 1. 标题结构:要点前置,信息明确
  51. 核心信息前置:标题开头直接点出文章的核心内容或亮点,吸引读者注意。例如:
  52. “我国存款最安全的五大银行,永远都不会倒闭,你知道是哪五家吗?”
  53. “亩产7000斤,被误认成萝卜却曾是‘救命粮’,如今成我国出口名蔬”。
  54. 简洁明了:标题通常在20字以内,信息集中且易于理解。
  55. 悬念前置结构:前半句设置反常/冲突场景(如"刑满释放蹬三轮")+后半句用结果反转制造悬念("政府领导登门分配工作")
  56. 多要素拼接:通过冒号/逗号分隔不同叙事主体(地域+人物冲突+权威评价),如"辽宁女子住高档小区被敲门,法院判决意外"
  57. 2. 情绪表达:激发共鸣,引发好奇
  58. 情感共鸣:通过情感化的语言触动读者,泪崩/守护/抱头痛哭等情感冲击词,配合家庭伦理场景
  59. 例如:
  60. “老母亲分家产,给亲闺女30万,给养女一筐青菜,养女意外摔倒,看到筐子里的东西,瞬间愣住了”。
  61. “儿子卖车卖房给母亲治病,母亲去世后儿媳收拾房间,打开床底柜,儿子突然痛哭”。
  62. 悬念与好奇心:通过提问或制造悬念,激发读者点击欲望。例如:
  63. “你知道是哪五家吗?”
  64. “打开床底柜,儿子突然痛哭”。
  65. 冲突性情绪词:拍桌大骂/气愤不已/眼红不已/算计等强对抗性词汇
  66. 结果反差刺激:用"风光善终/价值过亿/判决意外"等违反预期的结果
  67. 3. 语言风格:口语化、接地气
  68. 口语化表达:使用通俗易懂的语言,贴近读者生活。
  69. 刻意使用"赶都赶不走/各吃各的/我就知道你在家"等市井化用语。
  70. 例如:
  71. “狗屎运?江西男子钓鱼时发现青鱼尸骸,扒开后捡到鸡蛋大小的青鱼石”。
  72. “聪明的女人,不会帮婆家3种忙,而蠢女人才一再插手”。
  73. 接地气的词汇:使用“狗屎运”“蠢女人”等口语化词汇,增强亲切感。
  74. 身份反差构建:突出人物命运转折(老农→亿万富翁/囚犯→政府帮扶对象)
  75. 权威背书暗示:"专家气愤/法院判决/网友评价"等第三方视角增强可信度
  76. 4. 标点运用:增强语气,突出重点
  77. 问号与感叹号:通过问号制造悬念,感叹号强化情感。
  78. 在关键转折点使用("太气人了!/赔不了!")
  79. 问号制造互动:如"容嬷嬷是校花?"激发读者验证心理
  80. 例如:
  81. “你知道是哪五家吗?”
  82. “太无耻了!湖南,一名厨师被公司派到云南‘出差’被拒……”
  83. 引号与冒号:用于突出关键词或转折点。
  84. 破折号递进:用"——"引导关键信息("吃不完最好扔掉——")
  85. 例如:
  86. “被误认成萝卜却曾是‘救命粮’”。
  87. “女子归还后,失主拒绝支付报酬,还说:要有格局”。
  88. 5. 热点与话题性:结合社会热点或争议
  89. 社会热点:结合当前热点事件或争议话题,吸引关注。例如:
  90. “上海:男子超市连续购买46枚过期咸鸭蛋,2天分46次交易,向厂家索赔金14万,法院判了!”
  91. 争议性话题:通过争议性内容引发讨论。例如:
  92. “李玉成终于说出实话,公开吐槽马玉琴年纪太大,结婚28年疑似后悔”。
  93. 6. 数字与具体细节:增强可信度与吸引力
  94. 数字的运用:通过具体数字增强标题的可信度和吸引力。例如:
  95. “亩产7000斤”。
  96. “22年河南男子跳河救人,体力耗尽留遗言”。
  97. 细节描述:通过细节让标题更具画面感。例如:
  98. “打开床底柜,儿子突然痛哭”。
  99. “扒开后捡到鸡蛋大小的青鱼石”。
  100. 7. 价值诉求:传递实用信息或情感价值
  101. 实用信息:提供对读者有价值的信息。例如:
  102. “我国存款最安全的五大银行,永远都不会倒闭”。
  103. “72岁老人每天一个蒸苹果,半年后体检,看到指标变化让他乐开了花”。
  104. 情感价值:通过情感故事或人生哲理打动读者。例如:
  105. “父母越老越能暴露家庭最真实的一面:当父母70岁,子女不该抱有这三种期待”。
  106. 8. 名人效应与历史情怀:增强吸引力
  107. 名人效应:提及名人或历史事件,吸引关注。例如:
  108. “难怪王扶林说陈晓旭不够漂亮,看看他选的原黛玉候选人,那才叫美”。
  109. “1975年‘下馆子’的老照片,2元能吃些什么,勾起那段最难忘的时光”。
  110. 9.隐藏传播逻辑:通过标题中暗含的、能触发人性弱点(如猎奇、贪婪、同情)或社会痛点的心理机制,通过潜意识刺激读者点击欲望
  111. 人性弱点触发:贪婪(200万保单)、猎奇(林彪密件)、窥私(家庭算计)
  112. 生存焦虑关联:医疗(脑瘫儿)、养老(子女不孝)、食品安全(二次加热)
  113. 身份代入设计:选择"老太太/外甥女/退休母亲"等易引发群体共鸣的角色
  114. 输入的标题是: '{ori_title}'
  115. """
  116. return prompt
  117. @staticmethod
  118. def category_generation_from_title(title_list: List[Tuple[str, str]]) -> str:
  119. """
  120. generate prompt category for given title
  121. """
  122. prompt = f"""
  123. 请帮我完成以下任务:输入为文章的标题,根据标题判断其内容所属的类目,输出为文章标题及其对应的类目。
  124. 类目需从以下15个品类内选择:
  125. 1. 知识科普
  126. 定义:以通俗易懂的方式普及科学、技术、健康、安全、生活常识、财产保护、医保政策、为人处事方式等内容,旨在提高公众的知识水平和认知能力。内容通常具有教育性和实用性,涵盖自然、社会、文化等多个领域。
  127. 标题示例:
  128. 我国存款最安全的五大银行,永远都不会倒闭,你知道是哪五家吗?
  129. 借条上不要写“这3个字”,不然变成一张废纸,否则用法律也没用
  130. 不能二次加热的3种食物!再次提醒:这3种食物吃不完最好扔掉
  131. 2. 军事历史
  132. 定义:聚焦于历史上的军事事件、战争故事、军事策略、英雄人物等内容,旨在还原战争场景、探讨军事决策、揭示历史真相,并展现战争中的人物命运与历史影响。内容通常以叙事、分析或回忆的形式呈现,兼具历史深度和故事性。
  133. 标题示例:
  134. 对越作战永远失踪的332人,陵园没有墓碑,没有名字,只有烈士证
  135. 淮海大战丢失阵地,师长带头冲锋!最后出一口恶气:活捉敌最高指挥官
  136. 抗战时,一村民被敌拉去带路,半道回头忽发现:后面跟个游击队员
  137. 3. 家长里短
  138. 定义:围绕家庭成员之间的关系、矛盾、情感、道德、等展开的故事或讨论,内容常涉及婚姻、亲子、婆媳、兄弟姐妹等关系,或是人情往来、金钱纠纷、情感变化等内容,反映家庭生活中的温情、冲突与人性。
  139. 标题示例:
  140. 父母越老越能暴露家庭最真实的一面:当父母70岁,子女不该抱有这三种期待
  141. 老母亲分家产,给亲闺女30万,给养女一筐青菜,养女意外摔倒,看到筐子里的东西,瞬间愣住了
  142. 我花150一天雇了阿姨,两天后上班回来给她300,阿姨说我账算错了
  143. 4. 社会法治
  144. 定义:聚焦社会事件、法律纠纷、法院判决、社会现象等内容,通常涉及道德、法律、公平正义等议题,旨在揭示社会问题、探讨法律规则或反映人性与社会现实。
  145. 标题示例:
  146. 山东,女子在小区捡到16万天价项链,业主悬赏3万找回,女子归还后,失主拒绝支付报酬,还说:要有格局,女子认为被骗,将失主告上法庭
  147. 陕西,女子22万买26层房,2年后,楼盘24层就已经封顶!开发商:你闹事造成100万损失,道歉才给赔偿!
  148. 上海:男子超市连续购买46枚过期咸鸭蛋,2天分46次交易,向厂家索赔金14万,法院判了!
  149. 5. 奇闻趣事
  150. 定义:以猎奇、娱乐为主,涵盖罕见、奇特、有趣的事件、发现或故事,内容通常具有趣味性和话题性,能够引发读者的好奇心和讨论。
  151. 标题示例:
  152. 狗屎运?江西男子钓鱼时发现青鱼尸骸,扒开后捡到鸡蛋大小的青鱼石,网友:起码值几千!
  153. 内蒙古小伙河边捡到金牌,拒绝上交将其熔成金手镯,专家气愤不已
  154. 男子买了一辆废弃坦克,拆油箱时,他发现了一根又一根的金条……
  155. 6. 名人八卦
  156. 定义:围绕名人的生活、言论、事件、八卦等内容展开,通常涉及娱乐圈、政界、历史人物等,旨在满足公众对名人隐私和动态的好奇心。
  157. 标题示例:
  158. 难怪王扶林说陈晓旭不够漂亮,看看他选的原黛玉候选人,那才叫美
  159. 心狠手辣的容嬷嬷年轻时是校花?看了照片后,网友直接闭嘴了!
  160. 李玉成终于说出实话,公开吐槽马玉琴年纪太大,结婚28年疑似后悔
  161. 7. 健康养生
  162. 定义:关注健康、养生、疾病预防、生活习惯等方面的知识和建议,内容通常具有实用性和指导性,旨在帮助读者改善生活质量、提升健康水平。
  163. 标题示例:
  164. 72岁老人每天一个蒸苹果,半年后体检,看到指标变化让他乐开了花
  165. 40岁女子每天吃水煮蛋,一年后去体检,检查报告令医生都羡慕不已
  166. 2024年血糖新标准已公布,不再是3.9~6.1,你的血糖还不算高吗?
  167. 8. 情感故事
  168. 定义:以人与人之间的情感交流、感人故事、情感经历为主题,内容通常充满温情、感动或反思,旨在引发读者的情感共鸣和思考。
  169. 标题示例:
  170. 男孩饭店吃饭,发现陌生女子和去世母亲很像,走过去说:我妈妈去世了,能抱一下我吗?
  171. 河南一女子直播时,被失散 32 年的父亲认出:闺女等着爸爸接你回家
  172. 1987年,江苏男子借好友一千元,25年后朋友成富豪还他1000万报恩
  173. 流浪狗跟着骑行夫妻跑了一百多公里,一直守护在女主身边,赶都赶不走,当男主得知原因后竟抱着狗狗大哭起来
  174. 9. 国家大事
  175. 定义:涉及国家实力、科技发展、资源发现、国际合作等内容,通常以宏观视角展现国家的综合实力、科技成就或国际影响力,体现国家的崛起与发展。
  176. 标题示例:
  177. 我国在南极发现“海上粮仓”,储量高达10亿吨,世界各国眼红不已
  178. 我国贵州发现7000万吨宝藏,价值高达上万亿,多国求合作被拒绝
  179. 距我国3000公里,塞班岛明明归美国管辖,为何岛上大多是中国人?
  180. 10. 现代人物
  181. 定义:聚焦活跃在21世纪后具有传奇色彩或巨大贡献的人物、事迹、成就等,内容通常充满戏剧性和启发性,旨在展现人物的非凡经历或历史贡献。
  182. 标题示例:
  183. 她曾狂贪国家上百亿,被发现时已经移居美国,最终还风光一时得善终
  184. 山东女子因坐月子无聊,破译美国2套绝密系统的密码,国家:奖励711万!
  185. 牺牲太大了!航天女英雄刘洋:结婚8年未生子,回地面后“消失”的她怎样了?
  186. 11. 怀旧时光
  187. 定义:以回忆和怀旧为主题,涉及过去的历史、文化、生活、照片等内容,旨在唤起读者对过去时光的情感共鸣和怀念。
  188. 标题示例:
  189. 1975年“下馆子”的老照片,2元能吃些什么,勾起那段最难忘的时光
  190. 82年,北京老人捡回两张“破椅子”,遭家人数落,29年后拍出2300万
  191. 这张老照片第一次看到,邓颖超和李讷的罕见合影!
  192. 12. 政治新闻
  193. 定义:聚焦政治事件、领导人动态、国际关系等内容,通常以新闻或分析的形式呈现,旨在揭示政治局势、政策变化或国际关系的动态。
  194. 标题示例:
  195. 中方外长行程有变,提前结束访欧匆匆回国,带回来一个好消息
  196. 宋庆龄在北京逝世后,远在美国的宋美龄只说了7个字,字字揪心!
  197. 庐山会议后,叶帅去劝彭德怀认个错,哭着说了一句心里话
  198. 13. 历史人物
  199. 定义:聚焦于21世纪前具有重要影响的人物,包括他们的生平、事迹、成就、性格、趣事及其对历史进程的贡献。内容通常以传记、回忆录或历史分析的形式呈现,旨在还原人物的真实面貌并探讨其历史意义。
  200. 标题示例:
  201. 林彪去世后,蒋介石收到林彪与戴笠的一份密谈文件,看后拍桌大骂
  202. 张学良软禁时的一张实拍照片,头发秃顶,两眼无光,像个中年老头
  203. 1912年,孙中山和两个女儿罕见留影,面对镜头父女三人看起来很幸福
  204. 14. 社会现象
  205. 定义:关注社会中出现的普遍现象、趋势或问题,通常涉及文化、经济、教育、民生等领域。内容以观察、分析或评论为主,旨在揭示现象背后的原因、影响及社会意义,引发公众的思考和讨论。
  206. 标题示例:
  207. 22年河南男子跳河救人,体力耗尽留遗言,被救女子猛然抓住他:一起走
  208. 浙江一老人刑满释放,靠蹬三轮为生,6年后,政府领导登门拜访:我们帮您分配工作
  209. 儿子收到清华通知书,父亲花5万请全村吃席,镇长看一眼竟说:这是假的
  210. 15.财经科技
  211. 定义:聚焦于经济、金融、投资及行业发展的分析与预测,涵盖未来经济趋势、资产价值变化、行业变革及个人理财策略等内容。可以提供前瞻性的财经视角和实用的理财建议,帮助其把握经济动态、优化财务规划并应对行业变化。
  212. 标题示例:
  213. 未来10年,现金和房子都将贬值,只有2样东西最值钱
  214. 外卖时代将被终结?一个全新行业正悄悄取代外卖,你准备好了吗?
  215. 准备存款的一定要知道,今明两年,定期存款要记住“4不存”
  216. 输入是一个 LIST, LIST 中的每个元素是一个元组,元组的第一个元素是文章的 ID,第二个元素是文章的标题。
  217. 最后输出结果请用JSON格式输出,key为ID,value为品类,仅输出JSON,不要markdown格式,不要任何其他内容
  218. 如果标题中包含半角双引号,则进行转义
  219. 输入的 LIST 是 {title_list}
  220. 检查你的输出,输出的品类一定需要是输入的 15个品类,只需要输出品类的中文汉字
  221. """
  222. return prompt
  223. async def _roll_back_lock_tasks(self, table_name: str) -> int:
  224. query = f"""
  225. update {table_name}
  226. set category_status = %s
  227. where category_status = %s and category_status_update_ts <= %s;
  228. """
  229. return await self.pool.async_save(
  230. query=query,
  231. params=(
  232. self.INIT_STATUS,
  233. self.PROCESSING_STATUS,
  234. int(time.time()) - self.MAX_PROCESSING_TIME,
  235. ),
  236. )
  237. async def process_single_article(
  238. self, content_type: str, article: Dict
  239. ) -> Optional[Dict]:
  240. match content_type:
  241. case "video":
  242. article_id = article["id"]
  243. title = article["article_title"]
  244. case "article":
  245. article_id = article["article_id"]
  246. title = article["title"]
  247. case _:
  248. raise ValueError("content type is not supported")
  249. title_batch = [(article_id, title)]
  250. prompt = self.category_generation_from_title(title_batch)
  251. try:
  252. completion = fetch_deepseek_completion(
  253. model="DeepSeek-V3", prompt=prompt, output_type="json"
  254. )
  255. return completion
  256. except Exception as e:
  257. await self.aliyun_log.log(
  258. contents={
  259. "trace_id": self.trace_id,
  260. "data": {
  261. "article_id": article_id,
  262. "error": str(e),
  263. "traceback": traceback.format_exc(),
  264. },
  265. }
  266. )
  267. return None
  268. class VideoPoolCategoryGeneration:
  269. pass
  270. class ArticlePoolCategoryGeneration(TitleProcess):
  271. def __init__(self, pool, aliyun_log, trace_id):
  272. super().__init__(pool, aliyun_log, trace_id)
  273. async def lock_task(self, article_id_tuple: tuple[int, ...]) -> int:
  274. update_query = f"""
  275. update long_articles.crawler_meta_article
  276. set category_status = %s, category_status_update_ts = %s
  277. where article_id in %s and category_status = %s;
  278. """
  279. return await self.pool.async_save(
  280. query=update_query,
  281. params=(
  282. self.PROCESSING_STATUS,
  283. int(time.time()),
  284. article_id_tuple,
  285. self.INIT_STATUS,
  286. ),
  287. )
  288. async def get_task_list(self, limit):
  289. query = f"""
  290. select article_id, title from crawler_meta_article
  291. where category_status = %s and status = %s and score > %s
  292. order by score desc limit %s;
  293. """
  294. return await self.pool.async_fetch(
  295. query=query,
  296. params=(
  297. self.INIT_STATUS,
  298. self.ARTICLE_INIT_STATUS,
  299. self.LIMIT_SCORE,
  300. limit,
  301. ),
  302. )
  303. async def set_category_status_as_success(
  304. self, article_id: int, category: str
  305. ) -> int:
  306. update_query = f"""
  307. update long_articles.crawler_meta_article
  308. set category_by_ai = %s, category_status = %s, category_status_update_ts = %s
  309. where article_id = %s and category_status = %s;
  310. """
  311. return await self.pool.async_save(
  312. query=update_query,
  313. params=(
  314. category,
  315. self.SUCCESS_STATUS,
  316. int(time.time()),
  317. article_id,
  318. self.PROCESSING_STATUS,
  319. ),
  320. )
  321. async def set_category_status_as_fail(self, article_id: int) -> int:
  322. update_query = f"""
  323. update long_articles.crawler_meta_article
  324. set category_status = %s, category_status_update_ts = %s
  325. where article_id = %s and category_status = %s;
  326. """
  327. return await self.pool.async_save(
  328. query=update_query,
  329. params=(
  330. self.FAIL_STATUS,
  331. int(time.time()),
  332. article_id,
  333. self.PROCESSING_STATUS,
  334. ),
  335. )
  336. async def process_each_batch(self, task_batch):
  337. title_batch = [(i["article_id"], i["title"]) for i in task_batch]
  338. id_tuple = tuple([int(i["article_id"]) for i in task_batch])
  339. if await self.lock_task(id_tuple):
  340. prompt = self.category_generation_from_title(title_batch)
  341. try:
  342. completion = fetch_deepseek_completion(
  343. model="DeepSeek-V3", prompt=prompt, output_type="json"
  344. )
  345. for article in title_batch:
  346. article_id = article[0]
  347. category = completion.get(str(article_id))
  348. if category:
  349. await self.set_category_status_as_success(article_id, category)
  350. else:
  351. await self.set_category_status_as_fail(article_id)
  352. except Exception as e:
  353. await self.aliyun_log.log(
  354. contents={
  355. "task": "ArticlePoolCategoryGeneration",
  356. "function": "process_each_batch",
  357. "message": "batch 中存在敏感词,AI 拒绝返回",
  358. "status": "fail",
  359. "trace_id": self.trace_id,
  360. "data": {
  361. "article_id": id_tuple,
  362. "error": str(e),
  363. "traceback": traceback.format_exc(),
  364. },
  365. }
  366. )
  367. for article in task_batch:
  368. single_completion = await self.process_single_article(
  369. content_type="article", article=article
  370. )
  371. article_id = article["article_id"]
  372. if single_completion:
  373. category = single_completion.get(str(article_id))
  374. if category:
  375. # set as success
  376. await self.set_category_status_as_success(
  377. article_id, category
  378. )
  379. else:
  380. await self.set_category_status_as_fail(article_id)
  381. else:
  382. # set as fail
  383. await self.set_category_status_as_fail(article_id)
  384. return
  385. else:
  386. return
  387. async def deal(self, limit):
  388. # await self._roll_back_lock_tasks(table_name="crawler_meta_article")
  389. if not limit:
  390. limit = self.PROCESS_NUM
  391. task_list = await self.get_task_list(limit=limit)
  392. print(type(task_list))
  393. await self.aliyun_log.log(
  394. contents={
  395. "task": "ArticlePoolCategoryGeneration",
  396. "function": "deal",
  397. "trace_id": self.trace_id,
  398. "message": f"总共获取{len(task_list)}条文章",
  399. }
  400. )
  401. print(task_list)
  402. task_batch_list = yield_batch(data=task_list, batch_size=self.BATCH_SIZE)
  403. batch_index = 0
  404. for task_batch in task_batch_list:
  405. batch_index += 1
  406. try:
  407. await self.process_each_batch(task_batch)
  408. print(f"batch :{batch_index} 处理成功")
  409. except Exception as e:
  410. await self.aliyun_log.log(
  411. contents={
  412. "task": "ArticlePoolCategoryGeneration",
  413. "function": "deal",
  414. "message": f"batch {batch_index} processed failed",
  415. "status": "fail",
  416. "trace_id": self.trace_id,
  417. "data": {
  418. "error": str(e),
  419. "traceback": traceback.format_exc(),
  420. },
  421. }
  422. )
  423. class TitleRewrite(TitleProcess):
  424. async def roll_back_blocked_tasks(self):
  425. """
  426. rollback blocked tasks
  427. """
  428. query = f"""
  429. select id, title_rewrite_status_update_timestamp
  430. from publish_single_video_source
  431. where title_rewrite_status = %s;
  432. """
  433. article_list = await self.pool.async_fetch(
  434. query=query, params=(self.TITLE_REWRITE_LOCK_STATUS,)
  435. )
  436. if article_list:
  437. blocked_id_list = [
  438. i["id"]
  439. for i in article_list
  440. if (int(time.time()) - i["title_rewrite_status_update_timestamp"])
  441. > self.TITLE_REWRITE_LOCK_TIME
  442. ]
  443. if blocked_id_list:
  444. update_query = """
  445. update publish_single_video_source
  446. set title_rewrite_status = %s
  447. where id in %s and title_rewrite_status = %s;
  448. """
  449. await self.pool.async_save(
  450. query=update_query,
  451. params=(
  452. self.TITLE_REWRITE_INIT_STATUS,
  453. tuple(blocked_id_list),
  454. self.TITLE_REWRITE_LOCK_STATUS,
  455. ),
  456. )
  457. async def get_articles_batch(self, batch_size=1000):
  458. query = f"""
  459. select content_trace_id, article_title
  460. from publish_single_video_source
  461. where bad_status = {self.ARTICLE_POSITIVE_STATUS}
  462. and audit_status = {self.ARTICLE_AUDIT_PASSED_STATUS}
  463. and title_rewrite_status = {self.TITLE_REWRITE_INIT_STATUS}
  464. and platform in ('hksp', 'sph')
  465. limit {batch_size};
  466. """
  467. return await self.pool.async_fetch(query=query, db_name="long_articles")
  468. async def update_title_rewrite_status(
  469. self, content_trace_id, ori_status, new_status
  470. ):
  471. query = f"""
  472. update publish_single_video_source
  473. set title_rewrite_status = %s, title_rewrite_status_update_timestamp = %s
  474. where content_trace_id = %s and title_rewrite_status= %s;
  475. """
  476. affected_rows = await self.pool.async_save(
  477. query=query,
  478. params=(new_status, int(time.time()), content_trace_id, ori_status),
  479. )
  480. return affected_rows
  481. async def insert_into_rewrite_table(self, content_trace_id, new_title):
  482. """
  483. insert into rewrite_table
  484. """
  485. insert_sql = f"""
  486. insert into video_title_rewrite
  487. (content_trace_id, new_title, status, prompt_version)
  488. values (%s, %s, %s, %s);
  489. """
  490. await self.pool.async_save(
  491. query=insert_sql,
  492. params=(
  493. content_trace_id,
  494. new_title,
  495. self.TITLE_USEFUL_STATUS,
  496. self.PROMPT_VERSION,
  497. ),
  498. )
  499. async def rewrite_each_article(self, article):
  500. """
  501. rewrite each article
  502. """
  503. content_trace_id = article["content_trace_id"]
  504. article_title = article["article_title"]
  505. # lock each task
  506. affected_rows = await self.update_title_rewrite_status(
  507. content_trace_id=content_trace_id,
  508. ori_status=self.TITLE_REWRITE_INIT_STATUS,
  509. new_status=self.TITLE_REWRITE_LOCK_STATUS,
  510. )
  511. if not affected_rows:
  512. return
  513. try:
  514. prompt = self.generate_title_rewrite_prompt(article_title)
  515. new_title = fetch_deepseek_completion(model="default", prompt=prompt)
  516. # insert into rewrite table
  517. await self.insert_into_rewrite_table(
  518. content_trace_id=content_trace_id, new_title=new_title
  519. )
  520. # unlock
  521. await self.update_title_rewrite_status(
  522. content_trace_id=content_trace_id,
  523. ori_status=self.TITLE_REWRITE_LOCK_STATUS,
  524. new_status=self.TITLE_REWRITE_SUCCESS_STATUS,
  525. )
  526. except Exception as e:
  527. await self.aliyun_log.log(
  528. contents={
  529. "task": "title rewrite task",
  530. "function": "rewrite_each_article",
  531. "message": content_trace_id,
  532. "status": "fail",
  533. "data": {
  534. "error_message": str(e),
  535. "error_type": type(e).__name__,
  536. "traceback": traceback.format_exc(),
  537. },
  538. }
  539. )
  540. await self.update_title_rewrite_status(
  541. content_trace_id=content_trace_id,
  542. ori_status=self.TITLE_REWRITE_LOCK_STATUS,
  543. new_status=self.TITLE_REWRITE_FAIL_STATUS,
  544. )
  545. async def deal(self):
  546. """title rewrite task deal"""
  547. await self.roll_back_blocked_tasks()
  548. task_list = await self.get_articles_batch()
  549. for article in task_list:
  550. await self.rewrite_each_article(article)
  551. class ExtractTitleFeatures(Const):
  552. def __init__(self, pool, aliyun_log, trace_id):
  553. self.pool = pool
  554. self.aliyun_log = aliyun_log
  555. self.trace_id = trace_id
  556. async def get_tasks(self, batch_size=100):
  557. query = """
  558. select id, title
  559. from title_features
  560. where status = %s
  561. limit %s;
  562. """
  563. return await self.pool.async_fetch(
  564. query=query, params=(self.INIT_STATUS, batch_size)
  565. )
  566. async def update_status(self, title_id, ori_status, new_status):
  567. query = """
  568. UPDATE title_features
  569. SET status = %s
  570. WHERE id = %s AND status = %s;
  571. """
  572. return await self.pool.async_save(
  573. query=query,
  574. params=(new_status, title_id, ori_status),
  575. )
  576. async def update_status_batch(self, title_id_list, ori_status, new_status):
  577. query = """
  578. UPDATE title_features
  579. SET status = %s
  580. WHERE id in %s
  581. AND status = %s;
  582. """
  583. return await self.pool.async_save(
  584. query=query,
  585. params=(new_status, tuple(title_id_list), ori_status),
  586. )
  587. async def set_feature_for_each_title(self, title_id, feature_dict):
  588. query = """
  589. UPDATE title_features
  590. SET category = %s, era = %s, characters = %s, emotions = %s,
  591. is_strong_reverse = %s, is_person_comment = %s, title_type = %s,
  592. status = %s
  593. WHERE id = %s and status = %s;
  594. """
  595. return await self.pool.async_save(
  596. query=query,
  597. params=(
  598. feature_dict["category"],
  599. feature_dict["era"],
  600. json.dumps(feature_dict["characters"], ensure_ascii=False),
  601. json.dumps(feature_dict["emotions"], ensure_ascii=False),
  602. 1 if feature_dict.get("structure", {}).get("is_strong_reverse") else 0,
  603. 1 if feature_dict.get("structure", {}).get("is_person_comment") else 0,
  604. feature_dict["structure"]["title_type"],
  605. self.SUCCESS_STATUS,
  606. title_id,
  607. self.INIT_STATUS,
  608. ),
  609. )
  610. async def deal(self, data):
  611. batch_size = data.get("batch_size", 50)
  612. task_list = await self.get_tasks(batch_size=batch_size)
  613. title_list = [i["title"] for i in task_list]
  614. id_list = [i["id"] for i in task_list]
  615. title_id_map = {i["title"]: i["id"] for i in task_list}
  616. prompt = extract_article_features(title_list)
  617. # 设置状态为处理中
  618. await self.update_status_batch(
  619. id_list, self.INIT_STATUS, self.PROCESSING_STATUS
  620. )
  621. feature_dict = fetch_deepseek_completion(
  622. model="default", prompt=prompt, output_type="json"
  623. )
  624. for title in title_list:
  625. features = feature_dict.get(title, {})
  626. if not features:
  627. continue
  628. title_id = title_id_map[title]
  629. await self.set_feature_for_each_title(title_id, features)