process_title.py 33 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713714715716717718719720721722723724725726727728729730731732733734735736737738739740741742743744745746
  1. import json
  2. import time
  3. import traceback
  4. from typing import Optional, List, Dict, Tuple
  5. from applications.api import fetch_deepseek_completion
  6. from applications.utils import yield_batch
  7. from applications.tasks.llm_tasks.prompts import extract_article_features
  8. from tqdm.asyncio import tqdm
  9. class Const:
  10. # title rewrite status
  11. TITLE_REWRITE_INIT_STATUS = 0
  12. TITLE_REWRITE_SUCCESS_STATUS = 1
  13. TITLE_REWRITE_FAIL_STATUS = 99
  14. TITLE_REWRITE_LOCK_STATUS = 101
  15. # article status
  16. ARTICLE_AUDIT_PASSED_STATUS = 1
  17. ARTICLE_POSITIVE_STATUS = 0
  18. # title useful status
  19. TITLE_USEFUL_STATUS = 1
  20. # prompt version
  21. PROMPT_VERSION = "xx_250228" # 信欣2025-02-28提供
  22. # block expire time 1h
  23. TITLE_REWRITE_LOCK_TIME = 60 * 60
  24. # task status
  25. INIT_STATUS = 0
  26. PROCESSING_STATUS = 1
  27. SUCCESS_STATUS = 2
  28. FAIL_STATUS = 99
  29. # max processing time
  30. MAX_PROCESSING_TIME = 3600
  31. # article_status
  32. ARTICLE_INIT_STATUS = 1
  33. ARTICLE_PUBLISHED_STATUS = 2
  34. ARTICLE_BAD_STATUS = 0
  35. # limit score
  36. LIMIT_SCORE = 0.4
  37. BATCH_SIZE = 20
  38. PROCESS_NUM = 1000
  39. class TitleProcess(Const):
  40. def __init__(self, pool, aliyun_log, trace_id):
  41. self.pool = pool
  42. self.aliyun_log = aliyun_log
  43. self.trace_id = trace_id
  44. @staticmethod
  45. def generate_title_rewrite_prompt(ori_title: str) -> str:
  46. """
  47. 生成prompt
  48. """
  49. prompt = f"""
  50. 请将以下标题改写成适合公众号中小程序点击和传播的文章标题,文章标题的写作规范如下,请学习后进行文章标题的编写。直接输出最终的文章标题,文章标题撰写规范如下:
  51. 1. 标题结构:要点前置,信息明确
  52. 核心信息前置:标题开头直接点出文章的核心内容或亮点,吸引读者注意。例如:
  53. “我国存款最安全的五大银行,永远都不会倒闭,你知道是哪五家吗?”
  54. “亩产7000斤,被误认成萝卜却曾是‘救命粮’,如今成我国出口名蔬”。
  55. 简洁明了:标题通常在20字以内,信息集中且易于理解。
  56. 悬念前置结构:前半句设置反常/冲突场景(如"刑满释放蹬三轮")+后半句用结果反转制造悬念("政府领导登门分配工作")
  57. 多要素拼接:通过冒号/逗号分隔不同叙事主体(地域+人物冲突+权威评价),如"辽宁女子住高档小区被敲门,法院判决意外"
  58. 2. 情绪表达:激发共鸣,引发好奇
  59. 情感共鸣:通过情感化的语言触动读者,泪崩/守护/抱头痛哭等情感冲击词,配合家庭伦理场景
  60. 例如:
  61. “老母亲分家产,给亲闺女30万,给养女一筐青菜,养女意外摔倒,看到筐子里的东西,瞬间愣住了”。
  62. “儿子卖车卖房给母亲治病,母亲去世后儿媳收拾房间,打开床底柜,儿子突然痛哭”。
  63. 悬念与好奇心:通过提问或制造悬念,激发读者点击欲望。例如:
  64. “你知道是哪五家吗?”
  65. “打开床底柜,儿子突然痛哭”。
  66. 冲突性情绪词:拍桌大骂/气愤不已/眼红不已/算计等强对抗性词汇
  67. 结果反差刺激:用"风光善终/价值过亿/判决意外"等违反预期的结果
  68. 3. 语言风格:口语化、接地气
  69. 口语化表达:使用通俗易懂的语言,贴近读者生活。
  70. 刻意使用"赶都赶不走/各吃各的/我就知道你在家"等市井化用语。
  71. 例如:
  72. “狗屎运?江西男子钓鱼时发现青鱼尸骸,扒开后捡到鸡蛋大小的青鱼石”。
  73. “聪明的女人,不会帮婆家3种忙,而蠢女人才一再插手”。
  74. 接地气的词汇:使用“狗屎运”“蠢女人”等口语化词汇,增强亲切感。
  75. 身份反差构建:突出人物命运转折(老农→亿万富翁/囚犯→政府帮扶对象)
  76. 权威背书暗示:"专家气愤/法院判决/网友评价"等第三方视角增强可信度
  77. 4. 标点运用:增强语气,突出重点
  78. 问号与感叹号:通过问号制造悬念,感叹号强化情感。
  79. 在关键转折点使用("太气人了!/赔不了!")
  80. 问号制造互动:如"容嬷嬷是校花?"激发读者验证心理
  81. 例如:
  82. “你知道是哪五家吗?”
  83. “太无耻了!湖南,一名厨师被公司派到云南‘出差’被拒……”
  84. 引号与冒号:用于突出关键词或转折点。
  85. 破折号递进:用"——"引导关键信息("吃不完最好扔掉——")
  86. 例如:
  87. “被误认成萝卜却曾是‘救命粮’”。
  88. “女子归还后,失主拒绝支付报酬,还说:要有格局”。
  89. 5. 热点与话题性:结合社会热点或争议
  90. 社会热点:结合当前热点事件或争议话题,吸引关注。例如:
  91. “上海:男子超市连续购买46枚过期咸鸭蛋,2天分46次交易,向厂家索赔金14万,法院判了!”
  92. 争议性话题:通过争议性内容引发讨论。例如:
  93. “李玉成终于说出实话,公开吐槽马玉琴年纪太大,结婚28年疑似后悔”。
  94. 6. 数字与具体细节:增强可信度与吸引力
  95. 数字的运用:通过具体数字增强标题的可信度和吸引力。例如:
  96. “亩产7000斤”。
  97. “22年河南男子跳河救人,体力耗尽留遗言”。
  98. 细节描述:通过细节让标题更具画面感。例如:
  99. “打开床底柜,儿子突然痛哭”。
  100. “扒开后捡到鸡蛋大小的青鱼石”。
  101. 7. 价值诉求:传递实用信息或情感价值
  102. 实用信息:提供对读者有价值的信息。例如:
  103. “我国存款最安全的五大银行,永远都不会倒闭”。
  104. “72岁老人每天一个蒸苹果,半年后体检,看到指标变化让他乐开了花”。
  105. 情感价值:通过情感故事或人生哲理打动读者。例如:
  106. “父母越老越能暴露家庭最真实的一面:当父母70岁,子女不该抱有这三种期待”。
  107. 8. 名人效应与历史情怀:增强吸引力
  108. 名人效应:提及名人或历史事件,吸引关注。例如:
  109. “难怪王扶林说陈晓旭不够漂亮,看看他选的原黛玉候选人,那才叫美”。
  110. “1975年‘下馆子’的老照片,2元能吃些什么,勾起那段最难忘的时光”。
  111. 9.隐藏传播逻辑:通过标题中暗含的、能触发人性弱点(如猎奇、贪婪、同情)或社会痛点的心理机制,通过潜意识刺激读者点击欲望
  112. 人性弱点触发:贪婪(200万保单)、猎奇(林彪密件)、窥私(家庭算计)
  113. 生存焦虑关联:医疗(脑瘫儿)、养老(子女不孝)、食品安全(二次加热)
  114. 身份代入设计:选择"老太太/外甥女/退休母亲"等易引发群体共鸣的角色
  115. 输入的标题是: '{ori_title}'
  116. """
  117. return prompt
  118. @staticmethod
  119. def category_generation_from_title(title_list: List[Tuple[str, str]]) -> str:
  120. """
  121. generate prompt category for given title
  122. """
  123. prompt = f"""
  124. 请帮我完成以下任务:输入为文章的标题,根据标题判断其内容所属的类目,输出为文章标题及其对应的类目。
  125. 类目需从以下15个品类内选择:
  126. 1. 知识科普
  127. 定义:以通俗易懂的方式普及科学、技术、健康、安全、生活常识、财产保护、医保政策、为人处事方式等内容,旨在提高公众的知识水平和认知能力。内容通常具有教育性和实用性,涵盖自然、社会、文化等多个领域。
  128. 标题示例:
  129. 我国存款最安全的五大银行,永远都不会倒闭,你知道是哪五家吗?
  130. 借条上不要写“这3个字”,不然变成一张废纸,否则用法律也没用
  131. 不能二次加热的3种食物!再次提醒:这3种食物吃不完最好扔掉
  132. 2. 军事历史
  133. 定义:聚焦于历史上的军事事件、战争故事、军事策略、英雄人物等内容,旨在还原战争场景、探讨军事决策、揭示历史真相,并展现战争中的人物命运与历史影响。内容通常以叙事、分析或回忆的形式呈现,兼具历史深度和故事性。
  134. 标题示例:
  135. 对越作战永远失踪的332人,陵园没有墓碑,没有名字,只有烈士证
  136. 淮海大战丢失阵地,师长带头冲锋!最后出一口恶气:活捉敌最高指挥官
  137. 抗战时,一村民被敌拉去带路,半道回头忽发现:后面跟个游击队员
  138. 3. 家长里短
  139. 定义:围绕家庭成员之间的关系、矛盾、情感、道德、等展开的故事或讨论,内容常涉及婚姻、亲子、婆媳、兄弟姐妹等关系,或是人情往来、金钱纠纷、情感变化等内容,反映家庭生活中的温情、冲突与人性。
  140. 标题示例:
  141. 父母越老越能暴露家庭最真实的一面:当父母70岁,子女不该抱有这三种期待
  142. 老母亲分家产,给亲闺女30万,给养女一筐青菜,养女意外摔倒,看到筐子里的东西,瞬间愣住了
  143. 我花150一天雇了阿姨,两天后上班回来给她300,阿姨说我账算错了
  144. 4. 社会法治
  145. 定义:聚焦社会事件、法律纠纷、法院判决、社会现象等内容,通常涉及道德、法律、公平正义等议题,旨在揭示社会问题、探讨法律规则或反映人性与社会现实。
  146. 标题示例:
  147. 山东,女子在小区捡到16万天价项链,业主悬赏3万找回,女子归还后,失主拒绝支付报酬,还说:要有格局,女子认为被骗,将失主告上法庭
  148. 陕西,女子22万买26层房,2年后,楼盘24层就已经封顶!开发商:你闹事造成100万损失,道歉才给赔偿!
  149. 上海:男子超市连续购买46枚过期咸鸭蛋,2天分46次交易,向厂家索赔金14万,法院判了!
  150. 5. 奇闻趣事
  151. 定义:以猎奇、娱乐为主,涵盖罕见、奇特、有趣的事件、发现或故事,内容通常具有趣味性和话题性,能够引发读者的好奇心和讨论。
  152. 标题示例:
  153. 狗屎运?江西男子钓鱼时发现青鱼尸骸,扒开后捡到鸡蛋大小的青鱼石,网友:起码值几千!
  154. 内蒙古小伙河边捡到金牌,拒绝上交将其熔成金手镯,专家气愤不已
  155. 男子买了一辆废弃坦克,拆油箱时,他发现了一根又一根的金条……
  156. 6. 名人八卦
  157. 定义:围绕名人的生活、言论、事件、八卦等内容展开,通常涉及娱乐圈、政界、历史人物等,旨在满足公众对名人隐私和动态的好奇心。
  158. 标题示例:
  159. 难怪王扶林说陈晓旭不够漂亮,看看他选的原黛玉候选人,那才叫美
  160. 心狠手辣的容嬷嬷年轻时是校花?看了照片后,网友直接闭嘴了!
  161. 李玉成终于说出实话,公开吐槽马玉琴年纪太大,结婚28年疑似后悔
  162. 7. 健康养生
  163. 定义:关注健康、养生、疾病预防、生活习惯等方面的知识和建议,内容通常具有实用性和指导性,旨在帮助读者改善生活质量、提升健康水平。
  164. 标题示例:
  165. 72岁老人每天一个蒸苹果,半年后体检,看到指标变化让他乐开了花
  166. 40岁女子每天吃水煮蛋,一年后去体检,检查报告令医生都羡慕不已
  167. 2024年血糖新标准已公布,不再是3.9~6.1,你的血糖还不算高吗?
  168. 8. 情感故事
  169. 定义:以人与人之间的情感交流、感人故事、情感经历为主题,内容通常充满温情、感动或反思,旨在引发读者的情感共鸣和思考。
  170. 标题示例:
  171. 男孩饭店吃饭,发现陌生女子和去世母亲很像,走过去说:我妈妈去世了,能抱一下我吗?
  172. 河南一女子直播时,被失散 32 年的父亲认出:闺女等着爸爸接你回家
  173. 1987年,江苏男子借好友一千元,25年后朋友成富豪还他1000万报恩
  174. 流浪狗跟着骑行夫妻跑了一百多公里,一直守护在女主身边,赶都赶不走,当男主得知原因后竟抱着狗狗大哭起来
  175. 9. 国家大事
  176. 定义:涉及国家实力、科技发展、资源发现、国际合作等内容,通常以宏观视角展现国家的综合实力、科技成就或国际影响力,体现国家的崛起与发展。
  177. 标题示例:
  178. 我国在南极发现“海上粮仓”,储量高达10亿吨,世界各国眼红不已
  179. 我国贵州发现7000万吨宝藏,价值高达上万亿,多国求合作被拒绝
  180. 距我国3000公里,塞班岛明明归美国管辖,为何岛上大多是中国人?
  181. 10. 现代人物
  182. 定义:聚焦活跃在21世纪后具有传奇色彩或巨大贡献的人物、事迹、成就等,内容通常充满戏剧性和启发性,旨在展现人物的非凡经历或历史贡献。
  183. 标题示例:
  184. 她曾狂贪国家上百亿,被发现时已经移居美国,最终还风光一时得善终
  185. 山东女子因坐月子无聊,破译美国2套绝密系统的密码,国家:奖励711万!
  186. 牺牲太大了!航天女英雄刘洋:结婚8年未生子,回地面后“消失”的她怎样了?
  187. 11. 怀旧时光
  188. 定义:以回忆和怀旧为主题,涉及过去的历史、文化、生活、照片等内容,旨在唤起读者对过去时光的情感共鸣和怀念。
  189. 标题示例:
  190. 1975年“下馆子”的老照片,2元能吃些什么,勾起那段最难忘的时光
  191. 82年,北京老人捡回两张“破椅子”,遭家人数落,29年后拍出2300万
  192. 这张老照片第一次看到,邓颖超和李讷的罕见合影!
  193. 12. 政治新闻
  194. 定义:聚焦政治事件、领导人动态、国际关系等内容,通常以新闻或分析的形式呈现,旨在揭示政治局势、政策变化或国际关系的动态。
  195. 标题示例:
  196. 中方外长行程有变,提前结束访欧匆匆回国,带回来一个好消息
  197. 宋庆龄在北京逝世后,远在美国的宋美龄只说了7个字,字字揪心!
  198. 庐山会议后,叶帅去劝彭德怀认个错,哭着说了一句心里话
  199. 13. 历史人物
  200. 定义:聚焦于21世纪前具有重要影响的人物,包括他们的生平、事迹、成就、性格、趣事及其对历史进程的贡献。内容通常以传记、回忆录或历史分析的形式呈现,旨在还原人物的真实面貌并探讨其历史意义。
  201. 标题示例:
  202. 林彪去世后,蒋介石收到林彪与戴笠的一份密谈文件,看后拍桌大骂
  203. 张学良软禁时的一张实拍照片,头发秃顶,两眼无光,像个中年老头
  204. 1912年,孙中山和两个女儿罕见留影,面对镜头父女三人看起来很幸福
  205. 14. 社会现象
  206. 定义:关注社会中出现的普遍现象、趋势或问题,通常涉及文化、经济、教育、民生等领域。内容以观察、分析或评论为主,旨在揭示现象背后的原因、影响及社会意义,引发公众的思考和讨论。
  207. 标题示例:
  208. 22年河南男子跳河救人,体力耗尽留遗言,被救女子猛然抓住他:一起走
  209. 浙江一老人刑满释放,靠蹬三轮为生,6年后,政府领导登门拜访:我们帮您分配工作
  210. 儿子收到清华通知书,父亲花5万请全村吃席,镇长看一眼竟说:这是假的
  211. 15.财经科技
  212. 定义:聚焦于经济、金融、投资及行业发展的分析与预测,涵盖未来经济趋势、资产价值变化、行业变革及个人理财策略等内容。可以提供前瞻性的财经视角和实用的理财建议,帮助其把握经济动态、优化财务规划并应对行业变化。
  213. 标题示例:
  214. 未来10年,现金和房子都将贬值,只有2样东西最值钱
  215. 外卖时代将被终结?一个全新行业正悄悄取代外卖,你准备好了吗?
  216. 准备存款的一定要知道,今明两年,定期存款要记住“4不存”
  217. 输入是一个 LIST, LIST 中的每个元素是一个元组,元组的第一个元素是文章的 ID,第二个元素是文章的标题。
  218. 最后输出结果请用JSON格式输出,key为ID,value为品类,仅输出JSON,不要markdown格式,不要任何其他内容
  219. 如果标题中包含半角双引号,则进行转义
  220. 输入的 LIST 是 {title_list}
  221. 检查你的输出,输出的品类一定需要是输入的 15个品类,只需要输出品类的中文汉字
  222. """
  223. return prompt
  224. async def _roll_back_lock_tasks(self, table_name: str) -> int:
  225. query = f"""
  226. update {table_name}
  227. set category_status = %s
  228. where category_status = %s and category_status_update_ts <= %s;
  229. """
  230. return await self.pool.async_save(
  231. query=query,
  232. params=(
  233. self.INIT_STATUS,
  234. self.PROCESSING_STATUS,
  235. int(time.time()) - self.MAX_PROCESSING_TIME,
  236. ),
  237. )
  238. async def process_single_article(
  239. self, content_type: str, article: Dict
  240. ) -> Optional[Dict]:
  241. match content_type:
  242. case "video":
  243. article_id = article["id"]
  244. title = article["article_title"]
  245. case "article":
  246. article_id = article["article_id"]
  247. title = article["title"]
  248. case _:
  249. raise ValueError("content type is not supported")
  250. title_batch = [(article_id, title)]
  251. prompt = self.category_generation_from_title(title_batch)
  252. try:
  253. completion = fetch_deepseek_completion(
  254. model="DeepSeek-V3", prompt=prompt, output_type="json"
  255. )
  256. return completion
  257. except Exception as e:
  258. await self.aliyun_log.log(
  259. contents={
  260. "trace_id": self.trace_id,
  261. "data": {
  262. "article_id": article_id,
  263. "error": str(e),
  264. "traceback": traceback.format_exc(),
  265. },
  266. }
  267. )
  268. return None
  269. class VideoPoolCategoryGeneration:
  270. pass
  271. class ArticlePoolCategoryGeneration(TitleProcess):
  272. def __init__(self, pool, aliyun_log, trace_id):
  273. super().__init__(pool, aliyun_log, trace_id)
  274. async def lock_task(self, article_id_tuple: tuple[int, ...]) -> int:
  275. update_query = f"""
  276. update long_articles.crawler_meta_article
  277. set category_status = %s, category_status_update_ts = %s
  278. where article_id in %s and category_status = %s;
  279. """
  280. return await self.pool.async_save(
  281. query=update_query,
  282. params=(
  283. self.PROCESSING_STATUS,
  284. int(time.time()),
  285. article_id_tuple,
  286. self.INIT_STATUS,
  287. ),
  288. )
  289. async def get_task_list(self, limit):
  290. query = f"""
  291. select article_id, title from crawler_meta_article
  292. where category_status = %s and status = %s and score > %s
  293. order by score desc limit %s;
  294. """
  295. return await self.pool.async_fetch(
  296. query=query,
  297. params=(
  298. self.INIT_STATUS,
  299. self.ARTICLE_INIT_STATUS,
  300. self.LIMIT_SCORE,
  301. limit,
  302. ),
  303. )
  304. async def set_category_status_as_success(
  305. self, article_id: int, category: str
  306. ) -> int:
  307. update_query = f"""
  308. update long_articles.crawler_meta_article
  309. set category_by_ai = %s, category_status = %s, category_status_update_ts = %s
  310. where article_id = %s and category_status = %s;
  311. """
  312. return await self.pool.async_save(
  313. query=update_query,
  314. params=(
  315. category,
  316. self.SUCCESS_STATUS,
  317. int(time.time()),
  318. article_id,
  319. self.PROCESSING_STATUS,
  320. ),
  321. )
  322. async def set_category_status_as_fail(self, article_id: int) -> int:
  323. update_query = f"""
  324. update long_articles.crawler_meta_article
  325. set category_status = %s, category_status_update_ts = %s
  326. where article_id = %s and category_status = %s;
  327. """
  328. return await self.pool.async_save(
  329. query=update_query,
  330. params=(
  331. self.FAIL_STATUS,
  332. int(time.time()),
  333. article_id,
  334. self.PROCESSING_STATUS,
  335. ),
  336. )
  337. async def process_each_batch(self, task_batch):
  338. title_batch = [(i["article_id"], i["title"]) for i in task_batch]
  339. id_tuple = tuple([int(i["article_id"]) for i in task_batch])
  340. if await self.lock_task(id_tuple):
  341. prompt = self.category_generation_from_title(title_batch)
  342. try:
  343. completion = fetch_deepseek_completion(
  344. model="DeepSeek-V3", prompt=prompt, output_type="json"
  345. )
  346. for article in title_batch:
  347. article_id = article[0]
  348. category = completion.get(str(article_id))
  349. if category:
  350. await self.set_category_status_as_success(article_id, category)
  351. else:
  352. await self.set_category_status_as_fail(article_id)
  353. except Exception as e:
  354. await self.aliyun_log.log(
  355. contents={
  356. "task": "ArticlePoolCategoryGeneration",
  357. "function": "process_each_batch",
  358. "message": "batch 中存在敏感词,AI 拒绝返回",
  359. "status": "fail",
  360. "trace_id": self.trace_id,
  361. "data": {
  362. "article_id": id_tuple,
  363. "error": str(e),
  364. "traceback": traceback.format_exc(),
  365. },
  366. }
  367. )
  368. for article in task_batch:
  369. single_completion = await self.process_single_article(
  370. content_type="article", article=article
  371. )
  372. article_id = article["article_id"]
  373. if single_completion:
  374. category = single_completion.get(str(article_id))
  375. if category:
  376. # set as success
  377. await self.set_category_status_as_success(
  378. article_id, category
  379. )
  380. else:
  381. await self.set_category_status_as_fail(article_id)
  382. else:
  383. # set as fail
  384. await self.set_category_status_as_fail(article_id)
  385. return
  386. else:
  387. return
  388. async def deal(self, limit):
  389. # await self._roll_back_lock_tasks(table_name="crawler_meta_article")
  390. if not limit:
  391. limit = self.PROCESS_NUM
  392. task_list = await self.get_task_list(limit=limit)
  393. print(type(task_list))
  394. await self.aliyun_log.log(
  395. contents={
  396. "task": "ArticlePoolCategoryGeneration",
  397. "function": "deal",
  398. "trace_id": self.trace_id,
  399. "message": f"总共获取{len(task_list)}条文章",
  400. }
  401. )
  402. print(task_list)
  403. task_batch_list = yield_batch(data=task_list, batch_size=self.BATCH_SIZE)
  404. batch_index = 0
  405. for task_batch in task_batch_list:
  406. batch_index += 1
  407. try:
  408. await self.process_each_batch(task_batch)
  409. print(f"batch :{batch_index} 处理成功")
  410. except Exception as e:
  411. await self.aliyun_log.log(
  412. contents={
  413. "task": "ArticlePoolCategoryGeneration",
  414. "function": "deal",
  415. "message": f"batch {batch_index} processed failed",
  416. "status": "fail",
  417. "trace_id": self.trace_id,
  418. "data": {
  419. "error": str(e),
  420. "traceback": traceback.format_exc(),
  421. },
  422. }
  423. )
  424. class TitleRewrite(TitleProcess):
  425. async def roll_back_blocked_tasks(self):
  426. """
  427. rollback blocked tasks
  428. """
  429. query = f"""
  430. select id, title_rewrite_status_update_timestamp
  431. from publish_single_video_source
  432. where title_rewrite_status = %s;
  433. """
  434. article_list = await self.pool.async_fetch(
  435. query=query, params=(self.TITLE_REWRITE_LOCK_STATUS,)
  436. )
  437. if article_list:
  438. blocked_id_list = [
  439. i["id"]
  440. for i in article_list
  441. if (int(time.time()) - i["title_rewrite_status_update_timestamp"])
  442. > self.TITLE_REWRITE_LOCK_TIME
  443. ]
  444. if blocked_id_list:
  445. update_query = """
  446. update publish_single_video_source
  447. set title_rewrite_status = %s
  448. where id in %s and title_rewrite_status = %s;
  449. """
  450. await self.pool.async_save(
  451. query=update_query,
  452. params=(
  453. self.TITLE_REWRITE_INIT_STATUS,
  454. tuple(blocked_id_list),
  455. self.TITLE_REWRITE_LOCK_STATUS,
  456. ),
  457. )
  458. async def get_articles_batch(self, batch_size=1000):
  459. query = f"""
  460. select content_trace_id, article_title
  461. from publish_single_video_source
  462. where bad_status = {self.ARTICLE_POSITIVE_STATUS}
  463. and audit_status = {self.ARTICLE_AUDIT_PASSED_STATUS}
  464. and title_rewrite_status = {self.TITLE_REWRITE_INIT_STATUS}
  465. and platform in ('hksp', 'sph')
  466. limit {batch_size};
  467. """
  468. return await self.pool.async_fetch(query=query, db_name="long_articles")
  469. async def update_title_rewrite_status(
  470. self, content_trace_id, ori_status, new_status
  471. ):
  472. query = f"""
  473. update publish_single_video_source
  474. set title_rewrite_status = %s, title_rewrite_status_update_timestamp = %s
  475. where content_trace_id = %s and title_rewrite_status= %s;
  476. """
  477. affected_rows = await self.pool.async_save(
  478. query=query,
  479. params=(new_status, int(time.time()), content_trace_id, ori_status),
  480. )
  481. return affected_rows
  482. async def insert_into_rewrite_table(self, content_trace_id, new_title):
  483. """
  484. insert into rewrite_table
  485. """
  486. insert_sql = f"""
  487. insert into video_title_rewrite
  488. (content_trace_id, new_title, status, prompt_version)
  489. values (%s, %s, %s, %s);
  490. """
  491. await self.pool.async_save(
  492. query=insert_sql,
  493. params=(
  494. content_trace_id,
  495. new_title,
  496. self.TITLE_USEFUL_STATUS,
  497. self.PROMPT_VERSION,
  498. ),
  499. )
  500. async def rewrite_each_article(self, article):
  501. """
  502. rewrite each article
  503. """
  504. content_trace_id = article["content_trace_id"]
  505. article_title = article["article_title"]
  506. # lock each task
  507. affected_rows = await self.update_title_rewrite_status(
  508. content_trace_id=content_trace_id,
  509. ori_status=self.TITLE_REWRITE_INIT_STATUS,
  510. new_status=self.TITLE_REWRITE_LOCK_STATUS,
  511. )
  512. if not affected_rows:
  513. return
  514. try:
  515. prompt = self.generate_title_rewrite_prompt(article_title)
  516. new_title = fetch_deepseek_completion(model="default", prompt=prompt)
  517. # insert into rewrite table
  518. await self.insert_into_rewrite_table(
  519. content_trace_id=content_trace_id, new_title=new_title
  520. )
  521. # unlock
  522. await self.update_title_rewrite_status(
  523. content_trace_id=content_trace_id,
  524. ori_status=self.TITLE_REWRITE_LOCK_STATUS,
  525. new_status=self.TITLE_REWRITE_SUCCESS_STATUS,
  526. )
  527. except Exception as e:
  528. await self.aliyun_log.log(
  529. contents={
  530. "task": "title rewrite task",
  531. "function": "rewrite_each_article",
  532. "message": content_trace_id,
  533. "status": "fail",
  534. "data": {
  535. "error_message": str(e),
  536. "error_type": type(e).__name__,
  537. "traceback": traceback.format_exc(),
  538. },
  539. }
  540. )
  541. await self.update_title_rewrite_status(
  542. content_trace_id=content_trace_id,
  543. ori_status=self.TITLE_REWRITE_LOCK_STATUS,
  544. new_status=self.TITLE_REWRITE_FAIL_STATUS,
  545. )
  546. async def deal(self):
  547. """title rewrite task deal"""
  548. await self.roll_back_blocked_tasks()
  549. task_list = await self.get_articles_batch()
  550. for article in task_list:
  551. await self.rewrite_each_article(article)
  552. class ExtractTitleFeatures(Const):
  553. def __init__(self, pool, aliyun_log, trace_id):
  554. self.pool = pool
  555. self.aliyun_log = aliyun_log
  556. self.trace_id = trace_id
  557. async def get_tasks(self, batch_size=100):
  558. query = """
  559. select id, title
  560. from title_features
  561. where status = %s
  562. limit %s;
  563. """
  564. return await self.pool.async_fetch(
  565. query=query, params=(self.INIT_STATUS, batch_size)
  566. )
  567. async def update_status(self, title_id, ori_status, new_status):
  568. query = """
  569. UPDATE title_features
  570. SET status = %s
  571. WHERE id = %s AND status = %s;
  572. """
  573. return await self.pool.async_save(
  574. query=query,
  575. params=(new_status, title_id, ori_status),
  576. )
  577. async def update_status_batch(self, title_id_list, ori_status, new_status):
  578. query = """
  579. UPDATE title_features
  580. SET status = %s
  581. WHERE id in %s
  582. AND status = %s;
  583. """
  584. return await self.pool.async_save(
  585. query=query,
  586. params=(new_status, tuple(title_id_list), ori_status),
  587. )
  588. async def set_feature_for_each_title(self, title_id, feature_dict):
  589. query = """
  590. UPDATE title_features
  591. SET category = %s, era = %s, characters = %s, emotions = %s,
  592. is_strong_reverse = %s, is_person_comment = %s, title_type = %s,
  593. status = %s
  594. WHERE id = %s and status = %s;
  595. """
  596. return await self.pool.async_save(
  597. query=query,
  598. params=(
  599. feature_dict["category"],
  600. feature_dict["era"],
  601. json.dumps(feature_dict["characters"], ensure_ascii=False),
  602. json.dumps(feature_dict["emotions"], ensure_ascii=False),
  603. 1 if feature_dict.get("structure", {}).get("is_strong_reverse") else 0,
  604. 1 if feature_dict.get("structure", {}).get("is_person_comment") else 0,
  605. feature_dict["structure"]["title_type"],
  606. self.SUCCESS_STATUS,
  607. title_id,
  608. self.PROCESSING_STATUS,
  609. ),
  610. )
  611. async def deal(self, data):
  612. batch_size = data.get("batch_size", 50)
  613. task_list = await self.get_tasks(batch_size=batch_size)
  614. title_list = [i["title"] for i in task_list]
  615. id_list = [i["id"] for i in task_list]
  616. title_id_map = {i["title"]: i["id"] for i in task_list}
  617. prompt = extract_article_features(title_list)
  618. # 设置状态为处理中
  619. await self.update_status_batch(
  620. id_list, self.INIT_STATUS, self.PROCESSING_STATUS
  621. )
  622. try:
  623. feature_dict = fetch_deepseek_completion(
  624. model="default", prompt=prompt, output_type="json"
  625. )
  626. except Exception as e:
  627. await self.aliyun_log.log(
  628. contents={
  629. "task": "extract_title_features",
  630. "function": "deal",
  631. "message": "fetch deepseek completion failed",
  632. "status": "fail",
  633. "data": {
  634. "error_message": str(e),
  635. "error_type": type(e).__name__,
  636. "traceback": traceback.format_exc(),
  637. },
  638. }
  639. )
  640. await self.update_status_batch(
  641. id_list, self.PROCESSING_STATUS, self.FAIL_STATUS
  642. )
  643. return
  644. if not feature_dict:
  645. await self.aliyun_log.log(
  646. contents={
  647. "task": "extract_title_features",
  648. "function": "deal",
  649. "message": "fetch deepseek completion return empty",
  650. "status": "fail",
  651. "data": {
  652. "error_message": "fetch deepseek completion return empty",
  653. "error_type": "EmptyResponseError",
  654. "traceback": traceback.format_exc(),
  655. },
  656. }
  657. )
  658. await self.update_status_batch(
  659. id_list, self.PROCESSING_STATUS, self.FAIL_STATUS
  660. )
  661. return
  662. for title in tqdm(title_list):
  663. features = feature_dict.get(title, {})
  664. if not features:
  665. continue
  666. title_id = title_id_map[title]
  667. await self.set_feature_for_each_title(title_id, features)