sug_v5_0_with_eval_v2_yx.py 37 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650651652653654655656657658659660661662663664665666667668669670671672673674675676677678679680681682683684685686687688689690691692693694695696697698699700701702703704705706707708709710711712713714715716717718719720721722723724725726727728729730731732733734735736737738739740741742743744745746747748749750751752753754755756757758759760761762763764765766767768769770771772773774775776777778779780781782783784785786787788789790791792793794795796797798799800801802803804805806807808809810811812813814815816817818819820821822823824825826827828829830831832833834835836837838839840841842843844845846847848849850851852853854855856857858859860861862863864865866867868869870871872873874875876877878879880881882883884885886887888889890891892893894895896897898899900901902903904905906907908909910911912913914915916917918919920921922923924925926927928929930931932933934935936937938939940941942943944945946947948949950951952953954955956957958959960961962963964965
  1. import asyncio
  2. import json
  3. import os
  4. import argparse
  5. from datetime import datetime
  6. from agents import Agent, Runner
  7. from lib.my_trace import set_trace
  8. from typing import Literal
  9. from pydantic import BaseModel, Field
  10. from lib.utils import read_file_as_string
  11. from script.search_recommendations.xiaohongshu_search_recommendations import XiaohongshuSearchRecommendations
  12. class RunContext(BaseModel):
  13. version: str = Field(..., description="当前运行的脚本版本(文件名)")
  14. input_files: dict[str, str] = Field(..., description="输入文件路径映射")
  15. q_with_context: str
  16. q_context: str
  17. q: str
  18. log_url: str
  19. log_dir: str
  20. question_annotation: str | None = Field(default=None, description="问题的标注结果")
  21. operations_history: list[dict] = Field(default_factory=list, description="记录所有操作的历史")
  22. optimization_result: dict | None = Field(default=None, description="最终优化结果对象")
  23. final_output: str | None = Field(default=None, description="最终输出结果(格式化文本)")
  24. # ============================================================================
  25. # Agent 1: 问题标注专家
  26. # ============================================================================
  27. question_annotation_instructions = """
  28. 你是搜索需求分析专家。给定问题(含需求背景),在原文上标注三层:本质、硬性、软性。
  29. ## 判断标准
  30. **[本质]** - 问题的核心意图
  31. - 如何获取、教程、推荐、作品、测评等
  32. **[硬]** - 客观事实性约束(可明确验证、非主观判断)
  33. - 能明确区分类别的:地域、时间、对象、工具、操作类型
  34. - 特征:改变后得到完全不同类别的结果
  35. **[软]** - 主观判断性修饰(因人而异、程度性的)
  36. - 需要主观评价的:质量、速度、美观、特色、程度
  37. - 特征:改变后仍是同类结果,只是满足程度不同
  38. ## 输出格式
  39. 词语[本质-描述]、词语[硬-描述]、词语[软-描述]
  40. ## 注意
  41. - 只输出标注后的字符串
  42. - 结合需求背景判断意图
  43. """.strip()
  44. question_annotator = Agent[None](
  45. name="问题标注专家",
  46. instructions=question_annotation_instructions,
  47. )
  48. # ============================================================================
  49. # Agent 2: 评估专家
  50. # ============================================================================
  51. eval_instructions = """
  52. 你是专业的语言专家和语义相关性评判专家。你的任务是判断平台sug词条与原始query问题的相关度满足度。
  53. ## 评估目标
  54. 用这个推荐query搜索,能否找到满足原始需求的内容?
  55. ## 三层判定流程(一次性返回所有层级的评分)
  56. ### 第一层:知识识别(knowledge_recognition = 0 或 1)
  57. **什么是知识?**
  58. 在社交媒体创作场景下,知识是指:可应用的认知内容 + 实践指导 + 问题解决方案
  59. 包含三个核心要素:
  60. - 陈述性知识(Know-What): 是什么、有哪些、包括什么
  61. - 程序性知识(Know-How): 如何做、怎么实现、步骤方法
  62. - 策略性知识(Know-Why): 为什么、原理机制、优化策略
  63. **判定方法(三步判定法):**
  64. Step 1: 意图识别
  65. - 原始需求是想【知道/学会/获得】某样东西吗?→ yes 进入step2
  66. Step 2: 动词解析
  67. - 提取核心动词:
  68. - 认知类(了解、学习、理解)
  69. - 操作类(制作、拍摄、剪辑、运营)
  70. - 获取类(找、下载、获取、收集)
  71. - 决策类(选择、对比、评估)
  72. - 有明确动词 → 是知识需求
  73. - 无明确动词但有隐含目的 → 提取隐含动词
  74. - 完全无动作意图 → 非知识需求
  75. Step 3: 目标验证
  76. - 这个query解决后,用户会获得新的认知或能力吗? → YES则是知识
  77. - 这个query的答案可以被学习和应用吗? → YES则是知识
  78. - 这个query在寻求某个问题的解决方案吗? → YES则是知识
  79. **输出:**
  80. - knowledge_recognition: 1=是知识需求,0=非知识需求
  81. - knowledge_recognition_reason: 判定依据(包含意图识别、动词提取、目标验证的关键发现)
  82. **重要:即使knowledge_recognition=0,也要继续计算后两层得分(便于分析)**
  83. ---
  84. ### 第二层:知识动机判定(motivation_score = 0-1分值)
  85. **目标:** 完全理解原始query的综合意图,识别主要需求和次要需求,并进行加权评估。
  86. **评估维度:**
  87. #### 维度1: 核心意图动词识别(权重50%)
  88. - 显性动词直接提取:如"如何获取素材" → 核心动作="获取"
  89. - 隐性动词语义推理:如"川西秋天风光摄影" → 隐含动作="拍摄"或"欣赏"
  90. - 动作层级区分:主动作 vs 子动作
  91. **评分规则:**
  92. - 核心动作完全一致 → 1.0
  93. - 核心动作语义相近(近义词) → 0.8-0.9
  94. - 核心动作有包含关系(主次关系) → 0.5-0.7
  95. - 核心动作完全不同 → 0-0.4
  96. #### 维度2: 目标对象识别(权重30%)
  97. - 主要对象(What):如"获取川西秋季风光摄影素材" → 主要对象="风光摄影素材"
  98. - 对象的限定词:地域限定("川西")、时间限定("秋季")、质量限定("高质量")
  99. **评分规则:**
  100. - 主要对象+核心限定词完全匹配 → 1.0
  101. - 主要对象匹配,限定词部分匹配 → 0.7-0.9
  102. - 主要对象匹配,限定词缺失/不符 → 0.4-0.6
  103. - 主要对象不匹配 → 0-0.3
  104. #### 维度3: 终极目的识别(权重20%)
  105. **评分规则:**
  106. - 目的完全一致 → 1.0
  107. - 目的相关但路径不同 → 0.6-0.7
  108. - 目的不相关 → 0-0.5
  109. **综合计算公式:**
  110. ```
  111. motivation_score = 核心意图动词×0.5 + 目标对象×0.3 + 终极目的×0.2
  112. ```
  113. **输出:**
  114. - motivation_score: 0-1分值(>=0.9才算通过)
  115. - motivation_breakdown: {"核心意图动词": 0.x, "目标对象": 0.x, "终极目的": 0.x}
  116. **阈值判定:**
  117. - >=0.9:意图高度匹配
  118. - <0.9:意图不匹配,建议重新生成sug词或调整query词
  119. **注意:评估标准需要严格,对所有用例保持一致的标准**
  120. ---
  121. ### 第三层:相关性判定(relevance_score = 0-1分值)
  122. **目标:** 基于第二层的综合意图,评估sug词条对原始query的满足程度。
  123. **评分标准体系:**
  124. #### 高度满足(0.9-1.0)
  125. - 核心动作:完全一致或为标准近义词
  126. - 目标对象:主体+关键限定词全部匹配
  127. - 使用场景:完全相同或高度兼容
  128. - 终极目的:完全一致
  129. - 判定方法:逐一核对,所有维度≥0.9;替换测试(把sug词替换原query,意思不变)
  130. #### 中高满足(0.7-0.89)
  131. - 核心动作:一致或相近,但可能更泛化/具体化
  132. - 目标对象:主体匹配,但1-2个限定词缺失/泛化
  133. - 使用场景:基本兼容,可能略有扩展或收窄
  134. - 终极目的:一致但实现路径略有差异
  135. - 判定方法:"有效信息保留率" ≥70%
  136. #### 中低满足(0.4-0.69)
  137. - 核心动作:存在明显差异,但主题相关
  138. - 目标对象:部分匹配,关键限定词缺失或错位
  139. - 使用场景:有关联但场景不同
  140. - 终极目的:相关但实现路径完全不同
  141. - 判定方法:只有主题词重叠,用户需要显著改变搜索策略
  142. #### 低度/不满足(0-0.39)
  143. - 核心动作:完全不同或对立
  144. - 目标对象:主体不同或无关联
  145. - 使用场景:场景冲突
  146. - 终极目的:完全不相关
  147. - 判定方法:除通用词外无有效重叠,sug词满足了完全不同的需求
  148. **维度计算公式:**
  149. ```
  150. relevance_score = 核心动作×0.4 + 目标对象×0.3 + 使用场景×0.15 + 终极目的×0.15
  151. ```
  152. **特殊情况处理:**
  153. 1. 泛化与具体化
  154. - 泛化(sug词更广):如果原query所有要素都在覆盖范围内 → 0.75-0.85
  155. - 具体化(sug词更窄):如果sug词是原query的典型子场景 → 0.7-0.8
  156. 2. 同义转换宽容度
  157. - 允许:获取≈下载≈寻找≈收集;技巧≈方法≈教程≈攻略
  158. - 不允许:获取素材≠制作素材;学习技巧≠查看案例
  159. 3. 多意图处理
  160. - 识别主次意图(通过语序、连接词判断)
  161. - sug词至少满足主意图 → 中高满足
  162. - sug词同时满足主次意图 → 高度满足
  163. - sug词只满足次意图 → 降至中低满足
  164. **输出:**
  165. - relevance_score: 0-1分值(>=0.9为高度满足)
  166. - relevance_breakdown: {"核心动作": 0.x, "目标对象": 0.x, "使用场景": 0.x, "终极目的": 0.x}
  167. ---
  168. ## 最终输出要求
  169. 一次性返回所有三层的评估结果:
  170. 1. knowledge_recognition (0或1) + knowledge_recognition_reason
  171. 2. motivation_score (0-1) + motivation_breakdown
  172. 3. relevance_score (0-1) + relevance_breakdown
  173. 4. overall_reason: 综合评估理由(简要总结三层判定结果)
  174. **重要原则:**
  175. - 即使第一层knowledge_recognition=0,也要完整计算第二层和第三层
  176. - 即使第二层motivation_score<0.9,也要完整计算第三层
  177. - 所有维度的breakdown必须提供具体数值
  178. - 评估标准严格一致,不因用例不同而放松标准
  179. """.strip()
  180. class MotivationBreakdown(BaseModel):
  181. """动机得分明细"""
  182. 核心意图动词: float = Field(..., description="核心意图动词得分,0-1")
  183. 目标对象: float = Field(..., description="目标对象得分,0-1")
  184. 终极目的: float = Field(..., description="终极目的得分,0-1")
  185. class RelevanceBreakdown(BaseModel):
  186. """相关性得分明细"""
  187. 核心动作: float = Field(..., description="核心动作得分,0-1")
  188. 目标对象: float = Field(..., description="目标对象得分,0-1")
  189. 使用场景: float = Field(..., description="使用场景得分,0-1")
  190. 终极目的: float = Field(..., description="终极目的得分,0-1")
  191. class EvaluationFeedback(BaseModel):
  192. """评估反馈模型 - 三层知识评估"""
  193. # 第一层:知识识别
  194. knowledge_recognition: Literal[0, 1] = Field(
  195. ...,
  196. description="是否为知识需求,1=是,0=否"
  197. )
  198. knowledge_recognition_reason: str = Field(
  199. ...,
  200. description="知识识别判定依据(意图识别、动词提取、目标验证)"
  201. )
  202. # 第二层:知识动机匹配
  203. motivation_score: float = Field(
  204. ...,
  205. description="知识动机匹配度,0-1分值,>=0.9才通过"
  206. )
  207. motivation_breakdown: MotivationBreakdown = Field(
  208. ...,
  209. description="动机得分明细"
  210. )
  211. # 第三层:相关性评分
  212. relevance_score: float = Field(
  213. ...,
  214. description="相关性得分,0-1分值,>=0.9为高度满足"
  215. )
  216. relevance_breakdown: RelevanceBreakdown = Field(
  217. ...,
  218. description="相关性得分明细"
  219. )
  220. overall_reason: str = Field(
  221. ...,
  222. description="综合评估理由"
  223. )
  224. evaluator = Agent[None](
  225. name="评估专家",
  226. instructions=eval_instructions,
  227. output_type=EvaluationFeedback,
  228. )
  229. # ============================================================================
  230. # Agent 3: 修改策略生成专家
  231. # ============================================================================
  232. strategy_instructions = """
  233. 你是query修改策略专家。**模拟人在搜索引擎中的真实搜索行为**,基于反馈动态调整query。
  234. ## 核心思路:搜索是探索过程,不是直达过程
  235. **关键认知:**
  236. 1. **中间query不需要满足原始需求** - 它是探索工具,可以偏离原需求
  237. 2. **推荐词是最宝贵的反馈信号** - 告诉你系统理解成什么了,有什么内容
  238. 3. **每一步query都有明确的探索目的** - 不是盲目改词,而是试探和引导
  239. 4. **最终目标:找到满足需求的推荐词** - 不是让query本身满足需求
  240. ## 人的真实搜索过程
  241. **搜索的本质**:通过多步探索,利用推荐词作为桥梁,逐步引导系统
  242. **典型模式**:
  243. 第1步:直接尝试
  244. - 目的:看系统能否直接理解
  245. - 结果:空列表或essence=0
  246. - essence=0的推荐词:告诉你系统理解成什么了
  247. 第2步:降低要求,简化query
  248. - 目的:让系统有响应,看它在基础层面有什么
  249. - 推荐词虽然essence=0,但揭示了系统在某个主题有内容
  250. - **关键**:选一个最有潜力的推荐词
  251. 第3步:基于推荐词,往目标方向引导
  252. - 目的:利用推荐词作为桥梁,加上目标方向的词
  253. - 推荐词还是essence=0,但主题在变化(接近目标)
  254. - **渐进式**:不求一步到位,每步都有进展
  255. 第4步:继续引导或换角度
  256. - 如果推荐词主题不变 → 换角度
  257. - 如果推荐词主题在接近 → 继续引导
  258. 最终:找到essence=1的推荐词
  259. **关键原则**:
  260. 1. essence_score是评估推荐词的,不是评估中间query的
  261. 2. essence=0的推荐词也有价值,它揭示了系统的理解方向
  262. 3. 每一步都有明确的探索目的,看目的是否达成
  263. 4. 通过推荐词的主题变化,判断是否在接近目标
  264. ## 输入信息
  265. - 原始问题标注(三层):本质、硬性约束、软性修饰
  266. - 历史尝试记录:所有轮次的query、推荐词、评估结果
  267. - 当前query和推荐词评估
  268. ## 分析步骤
  269. ### 第一步:理解当前推荐词的信号
  270. **核心问题:推荐词告诉我什么信息?**
  271. **重要提醒:essence_score是评估推荐词是否满足原始需求的最终目标**
  272. - essence_score=1: 推荐词满足原需求的本质
  273. - essence_score=0: 推荐词不满足原需求的本质
  274. - **但中间query的目的可能不是满足原需求**,所以essence_score只是参考
  275. 1. **系统理解层面**(看推荐词的主题):
  276. - 空列表 → 系统完全不理解当前query
  277. - 有推荐词 → 系统理解成了什么主题?
  278. - 旅游?教程?素材?工具?品种介绍?
  279. - 这些主题是否有助于往目标方向引导?
  280. 2. **内容可用性层面**(看推荐词的价值):
  281. - **即使推荐词essence=0,也可能是很好的探索起点**
  282. - 例如:推荐词"川西旅游攻略"虽然essence=0,但揭示了系统认识"川西"
  283. - 哪些推荐词最有潜力作为下一步的桥梁?
  284. 3. **探索目的验证**:
  285. - 当前query的探索目的是什么?达到了吗?
  286. - 例如:目的是"看系统对川西有什么" → 达到了(有推荐词)
  287. - 下一步要验证/探索什么?
  288. ### 第二步:回顾历史,识别规律
  289. - 哪些query让系统理解方向变化了?(从"旅游"变成"摄影")
  290. - 哪些方向是死路?(多次essence=0且推荐词主题不变)
  291. - **是否有渐进的改善?**(推荐词越来越接近目标)
  292. ### 第三步:选择策略类型(带着明确的探索目的)
  293. **refine_current(微调当前query)**
  294. - 适用:推荐词方向对了,需要微调让它更精确
  295. - 探索目的:在正确方向上精细化
  296. - 动作:加词/减词/换词/调整顺序
  297. **use_recommendation(选推荐词作为新起点)** ⭐ 最重要策略
  298. - 适用:推荐词虽然essence=0,但**揭示了系统在这个方向有内容**
  299. - 探索目的:利用推荐词这个客观信号,引导系统往目标方向
  300. - **核心思维**:推荐词是系统给你的提示,告诉你"我有这个"
  301. - 动作:
  302. - 选一个最有潜力的推荐词作为base_query
  303. - 在它基础上加目标方向的词
  304. - **这个新query可能不满足原需求,但目的是探索和引导**
  305. **change_approach(换完全不同的角度)**
  306. - 适用:当前方向是死路(多次尝试推荐词主题不变)
  307. - 探索目的:跳出当前框架,从另一个角度切入
  308. - 动作:换一种完全不同的表述方式
  309. **relax_constraints(放宽约束)**
  310. - 适用:query太复杂,系统不理解(返回空列表)
  311. - 探索目的:先让系统有响应,看它在最基础层面有什么
  312. - 动作:去掉限定词,保留核心概念
  313. ## 输出要求
  314. ### 1. reasoning(推理过程)
  315. 必须包含三部分,**重点写探索目的**:
  316. - **当前推荐词信号分析**:
  317. - 系统理解成什么主题了?(旅游?教程?素材?工具?品种?)
  318. - 推荐词揭示了什么信息?(系统在哪个方向有内容)
  319. - **不要只看essence_score**:
  320. - essence_score=0不代表推荐词没用
  321. - 关键看推荐词的主题是否有助于引导
  322. - 哪个推荐词最有潜力作为下一步的桥梁?
  323. - **历史尝试与趋势**:
  324. - 系统理解的主题变化:从"品种介绍"→"旅游"→"摄影"
  325. - 是否在逐步接近目标?还是原地打转?
  326. - **下一步策略与探索目的**:
  327. - **这一步query的探索目的是什么?**
  328. - 验证系统对某个词的理解?
  329. - 往某个方向引导?
  330. - 利用推荐词作为桥梁?
  331. - 为什么选这个base_query?
  332. - 为什么这样修改?
  333. - **重要**:不要纠结"这个query不满足原需求",关键是它能否达成探索目的
  334. ### 2. strategy_type
  335. 从4种策略中选择:refine_current, use_recommendation, change_approach, relax_constraints
  336. ### 3. base_query
  337. **关键**:可以选择历史中的query,也可以选择历史推荐词
  338. - 如果选历史query:base_query_source = "history_query"
  339. - 如果选历史推荐词:base_query_source = "history_recommendation"
  340. ### 4. base_query_source
  341. 说明base_query的来源
  342. ### 5. modification_actions
  343. 列出具体的修改动作,例如:
  344. - ["去掉'如何获取'", "保留'川西秋季'", "把'素材'改为'图片'"]
  345. - ["选择推荐词'川西旅游'", "加上'秋季'", "加上'照片'"]
  346. ### 6. new_query
  347. 最终的新query
  348. ## 重要原则
  349. 1. **推荐词是最宝贵的反馈** - 充分利用推荐词这个客观信号
  350. - 即使essence=0的推荐词,也揭示了系统在这个方向有什么
  351. - **优先考虑use_recommendation策略** - 选一个推荐词作为起点
  352. 2. **中间query可以偏离原需求** - 每一步都有明确的探索目的
  353. - 不要纠结"这个query不满足原需求"
  354. - 关键是:这个query能不能帮你往正确方向引导系统
  355. 3. **识别死胡同,及时换方向**
  356. - 如果多次尝试推荐词主题不变 → 换方向
  357. - 如果推荐词越来越偏 → 回退到之前的某个好的起点
  358. 4. **保持推理简洁** - 抓住关键信息
  359. - 明确说出探索目的
  360. - 不要重复啰嗦
  361. """.strip()
  362. class ModificationStrategy(BaseModel):
  363. """修改策略模型 - 模拟人的搜索调整过程"""
  364. reasoning: str = Field(..., description="推理过程:1)当前推荐词分析:系统理解成什么了?2)历史尝试总结:哪些方向有效/无效?3)下一步策略:为什么这样调整?")
  365. strategy_type: Literal[
  366. "refine_current", # 微调当前query(加词/减词/换词/换顺序)
  367. "use_recommendation", # 选择推荐词作为新起点,在它基础上修改
  368. "change_approach", # 换完全不同的表述角度
  369. "relax_constraints" # 放宽约束,去掉部分限定词
  370. ] = Field(..., description="策略类型")
  371. base_query: str = Field(..., description="基础query,可以是:1)历史中的query 2)历史推荐词中的某一个")
  372. base_query_source: Literal["history_query", "history_recommendation"] = Field(..., description="base_query的来源")
  373. modification_actions: list[str] = Field(..., description="具体修改动作的描述,如:['去掉\"如何获取\"', '保留核心词\"川西秋季\"', '把\"素材\"改为\"图片\"']")
  374. new_query: str = Field(..., description="修改后的新query")
  375. strategy_generator = Agent[None](
  376. name="策略生成专家",
  377. instructions=strategy_instructions,
  378. output_type=ModificationStrategy,
  379. )
  380. # ============================================================================
  381. # 核心函数
  382. # ============================================================================
  383. async def annotate_question(q_with_context: str) -> str:
  384. """标注问题(三层)"""
  385. print("\n正在标注问题...")
  386. result = await Runner.run(question_annotator, q_with_context)
  387. annotation = str(result.final_output)
  388. print(f"问题标注完成:{annotation}")
  389. return annotation
  390. async def get_suggestions_with_eval(query: str, annotation: str, context: RunContext) -> list[dict]:
  391. """获取推荐词并评估"""
  392. print(f"\n正在获取推荐词:{query}")
  393. # 1. 调用小红书API
  394. xiaohongshu_api = XiaohongshuSearchRecommendations()
  395. query_suggestions = xiaohongshu_api.get_recommendations(keyword=query)
  396. print(f"获取到 {len(query_suggestions) if query_suggestions else 0} 个推荐词:{query_suggestions}")
  397. if not query_suggestions:
  398. # 记录到历史
  399. context.operations_history.append({
  400. "operation_type": "get_query_suggestions",
  401. "timestamp": datetime.now().isoformat(),
  402. "query": query,
  403. "suggestions": [],
  404. "evaluations": "未返回任何推荐词",
  405. })
  406. return []
  407. # 2. 并发评估所有推荐词
  408. async def evaluate_single_query(q_sug: str):
  409. eval_input = f"""
  410. <需求上下文>
  411. {context.q_context}
  412. </需求上下文>
  413. <原始query问题>
  414. {context.q}
  415. </原始query问题>
  416. <平台sug词条>
  417. {q_sug}
  418. </平台sug词条>
  419. 请对该sug词条进行三层评估(一次性返回所有层级的评分):
  420. 第一层:判断sug词条是否为知识需求(knowledge_recognition: 0或1)
  421. 第二层:评估知识动机匹配度(motivation_score: 0-1,需>=0.9)
  422. 第三层:评估相关性得分(relevance_score: 0-1,>=0.9为高度满足)
  423. 重要:即使第一层=0或第二层<0.9,也要完整计算所有层级的得分。
  424. """
  425. evaluator_result = await Runner.run(evaluator, eval_input)
  426. result: EvaluationFeedback = evaluator_result.final_output
  427. return {
  428. "query": q_sug,
  429. "knowledge_recognition": result.knowledge_recognition,
  430. "knowledge_recognition_reason": result.knowledge_recognition_reason,
  431. "motivation_score": result.motivation_score,
  432. "motivation_breakdown": result.motivation_breakdown.model_dump(),
  433. "relevance_score": result.relevance_score,
  434. "relevance_breakdown": result.relevance_breakdown.model_dump(),
  435. "overall_reason": result.overall_reason,
  436. }
  437. evaluations = await asyncio.gather(*[evaluate_single_query(q_sug) for q_sug in query_suggestions])
  438. # 3. 记录到历史
  439. context.operations_history.append({
  440. "operation_type": "get_query_suggestions",
  441. "timestamp": datetime.now().isoformat(),
  442. "query": query,
  443. "suggestions": query_suggestions,
  444. "evaluations": evaluations,
  445. })
  446. return evaluations
  447. async def generate_modification_strategy(
  448. current_query: str,
  449. evaluations: list[dict],
  450. annotation: str,
  451. context: RunContext
  452. ) -> ModificationStrategy:
  453. """生成修改策略"""
  454. print("\n正在生成修改策略...")
  455. # 整理历史尝试记录 - 完整保留推荐词和评估结果
  456. history_records = []
  457. round_num = 0
  458. for op in context.operations_history:
  459. if op["operation_type"] == "get_query_suggestions":
  460. round_num += 1
  461. record = {
  462. "round": round_num,
  463. "query": op["query"],
  464. "suggestions": op["suggestions"],
  465. "evaluations": op["evaluations"]
  466. }
  467. history_records.append(record)
  468. elif op["operation_type"] == "modify_query":
  469. # 修改操作也记录,但不增加轮数
  470. history_records.append({
  471. "operation": "modify_query",
  472. "strategy_type": op.get("strategy_type", op.get("modification_type")), # 兼容旧字段
  473. "base_query": op.get("base_query"),
  474. "base_query_source": op.get("base_query_source"),
  475. "modification_actions": op.get("modification_actions", []),
  476. "original_query": op["original_query"],
  477. "new_query": op["new_query"],
  478. "reasoning": op["reasoning"]
  479. })
  480. # 格式化历史记录为JSON
  481. history_json = json.dumps(history_records, ensure_ascii=False, indent=2)
  482. strategy_input = f"""
  483. <原始问题标注(三层)>
  484. {annotation}
  485. </原始问题标注(三层)>
  486. <历史尝试记录(完整)>
  487. {history_json}
  488. </历史尝试记录(完整)>
  489. <当前query>
  490. {current_query}
  491. </当前query>
  492. <当前轮推荐词评估结果>
  493. {json.dumps(evaluations, ensure_ascii=False, indent=2) if evaluations else "空列表"}
  494. </当前轮推荐词评估结果>
  495. 请基于所有历史尝试和当前评估结果,生成下一步的query修改策略。
  496. 重点分析:
  497. 1. **当前推荐词的信号**:
  498. - 系统理解成什么主题了?(旅游?教程?素材?工具?品种?)
  499. - 推荐词揭示了什么信息?系统在哪个方向有内容?
  500. - **不要只看essence_score**:essence=0的推荐词也可能是好的探索起点
  501. - 哪个推荐词最有潜力作为下一步的桥梁?
  502. 2. **历史趋势分析**:
  503. - 推荐词的主题变化:从"品种介绍"→"旅游"→"摄影"?
  504. - 是否在逐步接近目标?还是原地打转(主题不变)?
  505. - 哪些query让系统理解方向改变了?
  506. 3. **确定探索目的**:
  507. - 下一步query的探索目的是什么?
  508. * 验证系统对某个词的理解?
  509. * 往某个方向引导系统?
  510. * 利用推荐词作为桥梁?
  511. - **记住**:中间query不需要满足原需求,关键是达成探索目的
  512. """
  513. result = await Runner.run(strategy_generator, strategy_input)
  514. strategy: ModificationStrategy = result.final_output
  515. return strategy
  516. def find_qualified_queries(evaluations: list[dict]) -> dict:
  517. """分级查找合格query
  518. Returns:
  519. {
  520. "highly_qualified": [...], # 高度满足:knowledge=1, motivation>=0.9, relevance>=0.9
  521. "moderately_qualified": [...], # 中高满足:knowledge=1, motivation>=0.9, relevance>=0.7
  522. "lower_qualified": [...], # 中低满足:knowledge=1, motivation>=0.9, relevance>=0.4
  523. }
  524. """
  525. # 高度满足:knowledge=1, motivation>=0.9, relevance>=0.9
  526. highly_qualified = [
  527. e for e in evaluations
  528. if e['knowledge_recognition'] == 1
  529. and e['motivation_score'] >= 0.9
  530. and e['relevance_score'] >= 0.9
  531. ]
  532. # 中高满足:knowledge=1, motivation>=0.9, 0.7<=relevance<0.9
  533. moderately_qualified = [
  534. e for e in evaluations
  535. if e['knowledge_recognition'] == 1
  536. and e['motivation_score'] >= 0.9
  537. and 0.7 <= e['relevance_score'] < 0.9
  538. ]
  539. # 中低满足:knowledge=1, motivation>=0.9, 0.4<=relevance<0.7
  540. lower_qualified = [
  541. e for e in evaluations
  542. if e['knowledge_recognition'] == 1
  543. and e['motivation_score'] >= 0.9
  544. and 0.4 <= e['relevance_score'] < 0.7
  545. ]
  546. return {
  547. "highly_qualified": sorted(highly_qualified, key=lambda x: x['relevance_score'], reverse=True),
  548. "moderately_qualified": sorted(moderately_qualified, key=lambda x: x['relevance_score'], reverse=True),
  549. "lower_qualified": sorted(lower_qualified, key=lambda x: x['relevance_score'], reverse=True),
  550. }
  551. # ============================================================================
  552. # 主流程(代码控制)
  553. # ============================================================================
  554. async def optimize_query(context: RunContext, max_rounds: int = 20) -> dict:
  555. """
  556. 主优化流程 - 由代码控制
  557. Args:
  558. context: 运行上下文
  559. max_rounds: 最大迭代轮数,默认20
  560. 返回格式:
  561. {
  562. "success": True/False,
  563. "result": {...} or None,
  564. "message": "..."
  565. }
  566. """
  567. # 1. 标注问题(仅一次)
  568. annotation = await annotate_question(context.q_with_context)
  569. context.question_annotation = annotation
  570. # 2. 迭代优化
  571. current_query = context.q
  572. for round_num in range(1, max_rounds + 1):
  573. print(f"\n{'='*60}")
  574. print(f"第 {round_num} 轮:{'使用原始问题' if round_num == 1 else '使用修改后的query'}")
  575. print(f"当前query: {current_query}")
  576. print(f"{'='*60}")
  577. # 获取推荐词并评估
  578. evaluations = await get_suggestions_with_eval(current_query, annotation, context)
  579. if evaluations:
  580. # 检查是否找到合格query(分级筛选)
  581. qualified = find_qualified_queries(evaluations)
  582. # 优先返回高度满足的query
  583. if qualified["highly_qualified"]:
  584. return {
  585. "success": True,
  586. "level": "highly_qualified",
  587. "results": qualified["highly_qualified"],
  588. "message": f"第{round_num}轮找到{len(qualified['highly_qualified'])}个高度满足的query(知识=1, 动机≥0.9, 相关性≥0.9)"
  589. }
  590. # 其次返回中高满足的query
  591. if qualified["moderately_qualified"]:
  592. return {
  593. "success": True,
  594. "level": "moderately_qualified",
  595. "results": qualified["moderately_qualified"],
  596. "message": f"第{round_num}轮找到{len(qualified['moderately_qualified'])}个中高满足的query(知识=1, 动机≥0.9, 相关性≥0.7)"
  597. }
  598. # 如果是最后一轮,不再生成策略
  599. if round_num == max_rounds:
  600. break
  601. # 生成修改策略
  602. print(f"\n--- 生成修改策略 ---")
  603. strategy = await generate_modification_strategy(current_query, evaluations, annotation, context)
  604. print(f"\n修改策略:")
  605. print(f" 推理过程:{strategy.reasoning}")
  606. print(f" 策略类型:{strategy.strategy_type}")
  607. print(f" 基础query:{strategy.base_query} (来源: {strategy.base_query_source})")
  608. print(f" 修改动作:{', '.join(strategy.modification_actions)}")
  609. print(f" 新query:{strategy.new_query}")
  610. # 记录修改
  611. context.operations_history.append({
  612. "operation_type": "modify_query",
  613. "timestamp": datetime.now().isoformat(),
  614. "reasoning": strategy.reasoning,
  615. "strategy_type": strategy.strategy_type,
  616. "base_query": strategy.base_query,
  617. "base_query_source": strategy.base_query_source,
  618. "modification_actions": strategy.modification_actions,
  619. "original_query": current_query,
  620. "new_query": strategy.new_query,
  621. })
  622. # 更新当前query
  623. current_query = strategy.new_query
  624. # 所有轮次后仍未找到高度/中高满足的,降低标准查找
  625. print(f"\n{'='*60}")
  626. print(f"{max_rounds}轮后未找到高度/中高满足的query,降低标准(相关性 >= 0.4)")
  627. print(f"{'='*60}")
  628. qualified = find_qualified_queries(evaluations)
  629. if qualified["lower_qualified"]:
  630. return {
  631. "success": True,
  632. "level": "lower_qualified",
  633. "results": qualified["lower_qualified"],
  634. "message": f"{max_rounds}轮后找到{len(qualified['lower_qualified'])}个中低满足的query(知识=1, 动机≥0.9, 相关性≥0.4)"
  635. }
  636. # 完全失败:找出最接近的(只满足知识识别,但动机不够)
  637. knowledge_ok = [
  638. e for e in evaluations
  639. if e['knowledge_recognition'] == 1
  640. ]
  641. if knowledge_ok:
  642. # 返回所有满足knowledge的,按motivation_score降序
  643. closest_queries = sorted(knowledge_ok, key=lambda x: x['motivation_score'], reverse=True)
  644. return {
  645. "success": False,
  646. "level": "failed",
  647. "results": closest_queries[:5], # 只返回前5个
  648. "message": f"未找到合格query,但有{len(closest_queries)}个是知识需求(knowledge=1,但motivation<0.9)"
  649. }
  650. return {
  651. "success": False,
  652. "level": "failed",
  653. "results": [],
  654. "message": "未找到任何知识类推荐词(所有推荐词的knowledge_recognition均为0)"
  655. }
  656. # ============================================================================
  657. # 输出格式化
  658. # ============================================================================
  659. def format_output(optimization_result: dict, context: RunContext) -> str:
  660. """格式化输出结果"""
  661. results = optimization_result.get("results", [])
  662. level = optimization_result.get("level", "")
  663. # 满足程度映射
  664. level_map = {
  665. "highly_qualified": "高度满足 (90-100%)",
  666. "moderately_qualified": "中高满足 (70-89%)",
  667. "lower_qualified": "中低满足 (40-69%)",
  668. "failed": "未通过"
  669. }
  670. if optimization_result["success"] and results:
  671. output = f"原始问题:{context.q}\n"
  672. output += f"满足程度:{level_map.get(level, '未知')}\n"
  673. output += f"状态:{optimization_result['message']}\n\n"
  674. output += "推荐query(按相关性降序):\n"
  675. for i, result in enumerate(results, 1):
  676. output += f"\n{i}. {result['query']}\n"
  677. output += f" - 知识识别:{'是' if result['knowledge_recognition'] == 1 else '否'} ({result['knowledge_recognition_reason'][:50]}...)\n"
  678. output += f" - 动机匹配度:{result['motivation_score']:.2f} (≥0.9通过)\n"
  679. output += f" * 核心意图动词: {result['motivation_breakdown'].get('核心意图动词', 0):.2f}\n"
  680. output += f" * 目标对象: {result['motivation_breakdown'].get('目标对象', 0):.2f}\n"
  681. output += f" * 终极目的: {result['motivation_breakdown'].get('终极目的', 0):.2f}\n"
  682. output += f" - 相关性得分:{result['relevance_score']:.2f} (≥0.9高度满足)\n"
  683. output += f" * 核心动作: {result['relevance_breakdown'].get('核心动作', 0):.2f}\n"
  684. output += f" * 目标对象: {result['relevance_breakdown'].get('目标对象', 0):.2f}\n"
  685. output += f" * 使用场景: {result['relevance_breakdown'].get('使用场景', 0):.2f}\n"
  686. output += f" * 终极目的: {result['relevance_breakdown'].get('终极目的', 0):.2f}\n"
  687. output += f" - 综合评估:{result['overall_reason'][:100]}...\n"
  688. return output.strip()
  689. else:
  690. output = f"原始问题:{context.q}\n"
  691. output += f"结果:未找到合格推荐query\n"
  692. output += f"满足程度:{level_map.get(level, '未知')}\n"
  693. output += f"原因:{optimization_result['message']}\n"
  694. if results:
  695. output += "\n最接近的推荐词:\n"
  696. for i, result in enumerate(results[:3], 1): # 只显示前3个
  697. output += f"\n{i}. {result['query']}\n"
  698. output += f" - 知识识别:{'是' if result['knowledge_recognition'] == 1 else '否'}\n"
  699. output += f" - 动机匹配度:{result['motivation_score']:.2f}\n"
  700. output += f" - 相关性得分:{result['relevance_score']:.2f}\n"
  701. output += f" - 综合评估:{result['overall_reason'][:100]}...\n"
  702. output += "\n建议:尝试简化问题或调整需求描述"
  703. return output.strip()
  704. # ============================================================================
  705. # 主函数
  706. # ============================================================================
  707. async def main(input_dir: str, max_rounds: int = 20):
  708. current_time, log_url = set_trace()
  709. # 从目录中读取固定文件名
  710. input_context_file = os.path.join(input_dir, 'context.md')
  711. input_q_file = os.path.join(input_dir, 'q.md')
  712. q_context = read_file_as_string(input_context_file)
  713. q = read_file_as_string(input_q_file)
  714. q_with_context = f"""
  715. <需求上下文>
  716. {q_context}
  717. </需求上下文>
  718. <当前问题>
  719. {q}
  720. </当前问题>
  721. """.strip()
  722. # 获取当前文件名作为版本
  723. version = os.path.basename(__file__)
  724. version_name = os.path.splitext(version)[0]
  725. # 日志保存目录
  726. log_dir = os.path.join(input_dir, "output", version_name, current_time)
  727. run_context = RunContext(
  728. version=version,
  729. input_files={
  730. "input_dir": input_dir,
  731. "context_file": input_context_file,
  732. "q_file": input_q_file,
  733. },
  734. q_with_context=q_with_context,
  735. q_context=q_context,
  736. q=q,
  737. log_dir=log_dir,
  738. log_url=log_url,
  739. )
  740. # 执行优化流程(代码控制)
  741. optimization_result = await optimize_query(run_context, max_rounds=max_rounds)
  742. # 格式化输出
  743. final_output = format_output(optimization_result, run_context)
  744. print(f"\n{'='*60}")
  745. print("最终结果")
  746. print(f"{'='*60}")
  747. print(final_output)
  748. # 保存结果
  749. run_context.optimization_result = optimization_result
  750. run_context.final_output = final_output
  751. # 保存 RunContext 到 log_dir
  752. os.makedirs(run_context.log_dir, exist_ok=True)
  753. context_file_path = os.path.join(run_context.log_dir, "run_context.json")
  754. with open(context_file_path, "w", encoding="utf-8") as f:
  755. json.dump(run_context.model_dump(), f, ensure_ascii=False, indent=2)
  756. print(f"\nRunContext saved to: {context_file_path}")
  757. if __name__ == "__main__":
  758. parser = argparse.ArgumentParser(description="搜索query优化工具")
  759. parser.add_argument(
  760. "--input-dir",
  761. type=str,
  762. default="input/简单扣图",
  763. help="输入目录路径,默认: input/简单扣图"
  764. )
  765. parser.add_argument(
  766. "--max-rounds",
  767. type=int,
  768. default=20,
  769. help="最大迭代轮数,默认: 20"
  770. )
  771. args = parser.parse_args()
  772. asyncio.run(main(args.input_dir, max_rounds=args.max_rounds))