sug_v2_with_eval_yx_v2.py 24 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389390391392393394395396397398399400401402403404405406407408409410411412413414415416417418419420421422423424425426427428429430431432433434435436437438439440441442443444445446447448449450451452453454455456457458459460461462463464465466467468469470471472473474475476477478479480481482483484485486487488489490491492493494495496497498499500501502503504505506507508509510511512513514515516517518519520521522523524525526527528529530531532533534535536537538539540541542543544545546547548549550551552553554555556557558559560561562563564565566567568569570571572573574575576577578579580581582583584585586587588589590591592593594595596597598599600601602603604605606607608609610611612613614615616617618619620621622623624625626627628629630631632633634635636637638639640641642643644645646647648649650
  1. import asyncio
  2. import json
  3. import os
  4. import argparse
  5. from datetime import datetime
  6. from agents import Agent, Runner, function_tool
  7. from lib.my_trace import set_trace
  8. from typing import Literal
  9. from pydantic import BaseModel, Field
  10. from lib.utils import read_file_as_string
  11. from script.search_recommendations.xiaohongshu_search_recommendations import XiaohongshuSearchRecommendations
  12. from agents import Agent, RunContextWrapper, Runner, function_tool
  13. from pydantic import BaseModel, Field
  14. class RunContext(BaseModel):
  15. version: str = Field(..., description="当前运行的脚本版本(文件名)")
  16. input_files: dict[str, str] = Field(..., description="输入文件路径映射,如 {'context_file': '...', 'q_file': '...'}")
  17. q_with_context: str
  18. q_context: str
  19. q: str
  20. log_url: str
  21. log_dir: str
  22. # 中间数据记录 - 按时间顺序记录所有操作
  23. operations_history: list[dict] = Field(default_factory=list, description="记录所有操作的历史,包括 get_query_suggestions 和 modify_query")
  24. # 最终输出结果
  25. final_output: str | None = Field(default=None, description="Agent的最终输出结果")
  26. eval_insrtuctions = """
  27. # 角色定义
  28. 你是一个 **专业的语言专家和语义相关性评判专家**。
  29. 你的任务是:判断我给你的平台sug词条,其与 <原始 query 问题> 相关度满足度百分比。
  30. ---
  31. # 输入信息
  32. 你将接收到以下输入:
  33. 1. <需求上下文>:文档的解构结果或语义说明,用于理解 query 所针对的核心任务与场景。
  34. 2. <原始 query 问题>:用户的初始查询问题。
  35. 3. <平台sug词条>:模型或算法推荐的 平台sug词条,其中包含待评估的词条。
  36. ---
  37. # 判定流程
  38. ## 第一层:判定是否在寻找知识(是或者否)
  39. ### 什么是知识
  40. - 在社交媒体创作场景下,知识是指:
  41. - 知识 = 可应用的认知内容 + 实践指导 + 问题解决方案
  42. - 具体包含三个核心要素:
  43. - 陈述性知识(Know-What): 是什么、有哪些、包括什么
  44. - 程序性知识(Know-How): 如何做、怎么实现、步骤方法
  45. - 策略性知识(Know-Why): 为什么、原理机制、优化策略
  46. ### 判定方法:"是否在寻找知识"
  47. **三步判定法:**
  48. #### Step 1: 意图识别
  49. 原始需求是想【知道/学会/获得】某样东西吗?
  50. - yes → 进入step2
  51. #### Step 2: 动词解析
  52. 提取核心动词:
  53. - 认知类动词(包含但不限于:了解、学习、理解)
  54. - 操作类动词(包含但不限于:制作、拍摄、剪辑、运营)
  55. - 获取类动词(包含但不限于:找、下载、获取、收集)
  56. - 决策类动词(包含但不限于:选择、对比、评估)
  57. - 有明确动词 → 是知识需求
  58. - 无明确动词但有隐含目的 → 提取隐含动词
  59. - 完全无动作意图 → 非知识需求
  60. #### Step 3: 目标验证
  61. 验证问题:
  62. 1. 这个query解决后,用户会获得新的认知或能力吗? → YES则是知识
  63. 2. 这个query的答案可以被学习和应用吗? → YES则是知识
  64. 3. 这个query在寻求某个问题的解决方案吗? → YES则是知识
  65. **判定结果输出:**
  66. - ✅ **是知识需求** → 进入第二层
  67. - ❌ **非知识需求** → 停止判定,给出原因
  68. ---
  69. ## 第二层:知识动机判定层(0-1分值)
  70. ### 层级定义
  71. **本层目标:** 完全理解原始query的综合意图,识别主要需求和次要需求,并进行加权
  72. ### 判定方法
  73. #### 维度1: 核心意图动词识别(权重50%)
  74. 提取方法:
  75. 1. 显性动词直接提取
  76. - 例: "如何获取素材" → 核心动作="获取"
  77. 2. 隐性动词语义推理
  78. - 例: "川西秋天风光摄影" → 隐含动作="拍摄"或"欣赏"
  79. → 需结合上下文判断
  80. 3. 动作层级区分
  81. - 主动作 vs 子动作
  82. - 例: "如何用手机拍摄并剪辑vlog"
  83. → 主动作="制作vlog"
  84. → 子动作="拍摄"+"剪辑"
  85. 评分规则:
  86. - 核心动作完全一致 → 1.0
  87. - 核心动作语义相近(近义词) → 0.8-0.9
  88. - 核心动作有包含关系(主次关系) → 0.5-0.7
  89. - 核心动作完全不同 → 0-0.4
  90. #### 维度2: 目标对象识别(权重30%)
  91. 提取方法:
  92. 1. 主要对象(What)
  93. - 例: "获取川西秋季风光摄影素材"
  94. → 主要对象="风光摄影素材"
  95. 2. 对象的限定词(修饰语)
  96. - 地域限定: "川西"
  97. - 时间限定: "秋季"
  98. - 质量限定: "高质量"
  99. 评分规则:
  100. - 主要对象+核心限定词完全匹配 → 1.0
  101. - 主要对象匹配,限定词部分匹配 → 0.7-0.9
  102. - 主要对象匹配,限定词缺失/不符 → 0.4-0.6
  103. - 主要对象不匹配 → 0-0.3
  104. #### 维度3: 终极目的识别(权重20%)
  105. 评分规则:
  106. - 目的完全一致 → 1.0
  107. - 目的相关但路径不同 → 0.6-0.7
  108. - 目的不相关 → 0-0.5
  109. ### 综合意图加权计算
  110. **公式:**
  111. 满足度匹配度 = 核心意图动词识别×0.5 + 目标对象识别×0.3 + 终极目的得分×0.2
  112. **阈值判定:**
  113. - **大于等于0.9** → 意图高度匹配,进入第三层
  114. - **小于0.9** → 意图不匹配,建议重新生成sug词,或者调整query词
  115. ### 注意你的判定标准需要严格,你在遇到所有用例时你的评估标准是一致的
  116. ---
  117. ## 第三层:品类相关性判定层(百分比制)
  118. ### 层级定义
  119. **本层目标:** 基于第二层的综合意图,评估sug词条对原始query的满足程度
  120. ### 评分标准体系
  121. #### 高度满足: 90%-100%
  122. **定义标准:**
  123. 核心要素匹配度:
  124. ✓ 核心动作: 完全一致或为标准近义词
  125. ✓ 目标对象: 主体+关键限定词全部匹配
  126. ✓ 使用场景: 完全相同或高度兼容
  127. ✓ 终极目的: 完全一致
  128. **判定方法:**
  129. 1. 逐一核对五维度得分,所有维度≥0.9
  130. 2. 整体语义做"替换测试":把sug词替换原query,意思不变
  131. 3. 用户视角验证:普通用户会认为"这就是我要的"
  132. #### 中高满足: 70%-89%
  133. **定义标准:**
  134. 核心要素匹配度:
  135. ✓ 核心动作: 一致或相近,但可能更泛化/具体化
  136. ✓ 目标对象: 主体匹配,但1-2个限定词缺失/泛化
  137. ✓ 使用场景: 基本兼容,可能略有扩展或收窄
  138. ✓ 终极目的: 一致但实现路径略有差异
  139. **判定方法:**
  140. 1. 检查是否有"泛化"或"具体化"现象
  141. - 泛化: sug词范围更广,包含原query
  142. - 具体化: sug词更聚焦,是原query的子集
  143. 2. "有效信息保留率" ≥70%
  144. #### 中低满足: 40%-69%
  145. **定义标准:**
  146. 核心要素匹配度:
  147. ⚠ 核心动作: 存在明显差异,但主题相关
  148. ⚠ 目标对象: 部分匹配,关键限定词缺失或错位
  149. ⚠ 使用场景: 有关联但场景不同
  150. ⚠ 终极目的: 相关但实现路径完全不同
  151. **判定方法:**
  152. 1. 只有主题词重叠,核心动作不符
  153. 2. 用户需要显著改变搜索策略
  154. 3. 用户会觉得"有点相关但不是我要的"
  155. #### 低度/不满足: 0%-39%
  156. **定义标准:**
  157. 核心要素匹配度:
  158. ✗ 核心动作: 完全不同或对立
  159. ✗ 目标对象: 主体不同或无关联
  160. ✗ 使用场景: 场景冲突
  161. ✗ 终极目的: 完全不相关
  162. **判定方法:**
  163. 1. 除通用词外无有效重叠
  164. 2. sug词满足了完全不同的需求
  165. 3. 用户会直接忽略或感到困惑
  166. ### 评分计算方法
  167. #### 维度计算得分
  168. 相关性得分 = Σ(各维度得分 × 对应权重) × 100%
  169. 其中权重分配:
  170. - 核心动作: 40%
  171. - 目标对象: 30% (主体+限定词)
  172. - 使用场景: 15%
  173. - 终极目的: 15%
  174. ### 特殊情况处理规则
  175. #### 规则1: 泛化与具体化的区分
  176. 泛化(sug词更广):
  177. - 如果原query的所有要素都在sug词覆盖范围内 → 中高满足档位
  178. - 泛化导致信息过载 → 适当降档
  179. 具体化(sug词更窄):
  180. - 如果sug词是原query的典型子场景 → 中高满足档位
  181. - 具体化偏离主要需求 → 中低满足或更低
  182. #### 规则2: 同义转换的宽容度
  183. 允许的同义转换:
  184. - 核心动作的近义词(如: 获取/下载/寻找/收集)
  185. - 目标对象的近义词(如: 技巧/方法/教程/攻略)
  186. - 行业内通用的同义表达
  187. 不允许的转换(视为动作不符):
  188. - 动作意图改变(如: 获取 ≠ 制作)
  189. - 动作层级错位(如: 学习 ≠ 查看)
  190. - 目标对象改变(如: 工具推荐 ≠ 使用教程)
  191. #### 规则3: 多意图处理
  192. 如果原query包含多个并列意图:
  193. 1. 识别主次意图(通过语序、连接词判断)
  194. 2. sug词至少满足主意图 → 基本可定义为中高满足
  195. 3. sug词同时满足主次意图 → 可定义为高度满足
  196. 4. sug词只满足次意图 → 降档处理
  197. ---
  198. # 输出要求
  199. 输出结果必须为一个 JSON 格式,包含以下内容:
  200. ```json
  201. {
  202. "第一层_知识识别": {
  203. "是否为知识需求": "是/否",
  204. "判定依据": "简要说明判定理由,包括意图识别、动词提取、目标验证三步的关键发现"
  205. },
  206. "第二层_知识动机判定": {
  207. "得分": "0-1之间的小数",
  208. "判定依据": "简要说明各维度得分情况"
  209. },
  210. "第三层_相关性评分": {
  211. "相关度满足度百分比": "0-100之间的整数",
  212. "相关度满足度依据": "简要说明该sug词条如何与原始query和需求上下文共同形成的综合意图相匹配"
  213. }
  214. }
  215. ```
  216. **重要提示:请严格保持评估标准的一致性,在所有用例中使用相同的判定逻辑。**
  217. """
  218. class KnowledgeRecognition(BaseModel):
  219. """第一层:知识识别"""
  220. 是否为知识需求: str = Field(..., description="是/否")
  221. 判定依据: str = Field(..., description="简要说明判定理由")
  222. class MotivationJudgment(BaseModel):
  223. """第二层:知识动机判定"""
  224. 得分: float = Field(..., description="0-1之间的小数", ge=0, le=1)
  225. 判定依据: str = Field(..., description="简要说明各维度得分情况")
  226. class RelevanceScore(BaseModel):
  227. """第三层:相关性评分"""
  228. 相关度满足度百分比: int = Field(..., description="0-100之间的整数", ge=0, le=100)
  229. 相关度满足度依据: str = Field(..., description="简要说明匹配情况")
  230. class EvaluationFeedback(BaseModel):
  231. """完整的三层评估反馈"""
  232. 第一层_知识识别: KnowledgeRecognition
  233. 第二层_知识动机判定: MotivationJudgment
  234. 第三层_相关性评分: RelevanceScore
  235. evaluator = Agent[None](
  236. name="评估专家",
  237. instructions=eval_insrtuctions,
  238. output_type=EvaluationFeedback,
  239. )
  240. @function_tool
  241. async def get_query_suggestions(wrapper: RunContextWrapper[RunContext], query: str):
  242. """Fetch search recommendations from Xiaohongshu."""
  243. xiaohongshu_api = XiaohongshuSearchRecommendations()
  244. query_suggestions = xiaohongshu_api.get_recommendations(keyword=query)
  245. print(query_suggestions)
  246. async def evaluate_single_query(q_sug: str, q_with_context: str):
  247. """Evaluate a single query suggestion."""
  248. eval_input = f"""
  249. {q_with_context}
  250. <待评估的推荐query>
  251. {q_sug}
  252. </待评估的推荐query>
  253. """
  254. evaluator_result = await Runner.run(evaluator, eval_input)
  255. result: EvaluationFeedback = evaluator_result.final_output
  256. # 提取三层评估结果
  257. layer1 = result.第一层_知识识别
  258. layer2 = result.第二层_知识动机判定
  259. layer3 = result.第三层_相关性评分
  260. return {
  261. "query": q_sug,
  262. "第一层_知识识别": {
  263. "是否为知识需求": layer1.是否为知识需求,
  264. "判定依据": layer1.判定依据,
  265. },
  266. "第二层_知识动机判定": {
  267. "得分": layer2.得分,
  268. "判定依据": layer2.判定依据,
  269. },
  270. "第三层_相关性评分": {
  271. "相关度满足度百分比": layer3.相关度满足度百分比,
  272. "相关度满足度依据": layer3.相关度满足度依据,
  273. },
  274. # 为了向后兼容,保留旧的 score 字段(使用第三层百分比除以100)
  275. "score": layer3.相关度满足度百分比 / 100.0,
  276. }
  277. # 并发执行所有评估任务
  278. q_with_context = wrapper.context.q_with_context
  279. res = []
  280. if query_suggestions:
  281. res = await asyncio.gather(*[evaluate_single_query(q_sug, q_with_context) for q_sug in query_suggestions])
  282. else:
  283. res = '未返回任何推荐词'
  284. # 记录到 RunContext
  285. wrapper.context.operations_history.append({
  286. "operation_type": "get_query_suggestions",
  287. "timestamp": datetime.now().isoformat(),
  288. "query": query,
  289. "suggestions": query_suggestions,
  290. "evaluations": res,
  291. })
  292. return res
  293. @function_tool
  294. def modify_query(wrapper: RunContextWrapper[RunContext], original_query: str, operation_type: str, new_query: str, reason: str):
  295. """
  296. Modify the search query with a specific operation.
  297. Args:
  298. original_query: The original query before modification
  299. operation_type: Type of modification - must be one of: "简化", "扩展", "替换", "组合"
  300. new_query: The modified query after applying the operation
  301. reason: Detailed explanation of why this modification was made and what insight from previous suggestions led to this change
  302. Returns:
  303. A dict containing the modification record and the new query to use for next search
  304. """
  305. operation_types = ["简化", "扩展", "替换", "组合"]
  306. if operation_type not in operation_types:
  307. return {
  308. "status": "error",
  309. "message": f"Invalid operation_type. Must be one of: {', '.join(operation_types)}"
  310. }
  311. modification_record = {
  312. "original_query": original_query,
  313. "operation_type": operation_type,
  314. "new_query": new_query,
  315. "reason": reason,
  316. }
  317. # 记录到 RunContext
  318. wrapper.context.operations_history.append({
  319. "operation_type": "modify_query",
  320. "timestamp": datetime.now().isoformat(),
  321. "modification_type": operation_type,
  322. "original_query": original_query,
  323. "new_query": new_query,
  324. "reason": reason,
  325. })
  326. return {
  327. "status": "success",
  328. "modification_record": modification_record,
  329. "new_query": new_query,
  330. "message": f"Query modified successfully. Use '{new_query}' for the next search."
  331. }
  332. insrtuctions = """
  333. 你是一个专业的搜索query优化专家,擅长通过动态探索找到最符合用户搜索习惯的query。
  334. ## 核心任务
  335. 给定原始问题,通过迭代调用搜索推荐接口(get_query_suggestions),找到与原始问题语义等价且更符合平台用户搜索习惯的推荐query。
  336. ## 重要说明
  337. - **你不需要自己评估query的等价性**
  338. - get_query_suggestions 函数内部已集成评估子agent,会自动对每个推荐词进行**三层评估**
  339. - 返回结果包含三层评估信息:
  340. - **第一层_知识识别**:判断是否为知识需求(是/否)
  341. - **第二层_知识动机判定**:综合意图匹配度得分(0-1分值)
  342. - **第三层_相关性评分**:相关度满足度百分比(0-100%)
  343. - **score**:为兼容旧逻辑保留的字段(第三层百分比/100)
  344. - **你的职责是分析三层评估结果,做出决策和策略调整**
  345. ## 三层评估结果的解读
  346. ### 第一层:知识识别
  347. - 如果"是否为知识需求"为"否",说明该推荐词不符合知识类需求,直接忽略
  348. ### 第二层:知识动机判定(重要过滤层)
  349. - **高分(接近1.0)**:意图高度匹配,说明核心动词、目标对象、终极目的都基本吻合
  350. - **中等偏上(0.8-0.9)**:意图部分匹配,可能某些维度有偏差
  351. - **中等偏下或低分(< 0.8)**:意图明显偏离,核心要素不匹配,考虑调整query
  352. ### 第三层:相关性评分
  353. 根据评估标准分为四个档位:
  354. - **高度满足(90-100%)**:所有核心要素高度匹配,可作为最终结果
  355. - **中高满足(70-89%)**:核心要素基本匹配但有泛化/具体化,可作为备选
  356. - **中低满足(40-69%)**:部分相关但存在明显差异
  357. - **低度满足(0-39%)**:严重偏离,不建议使用
  358. ## 防止幻觉 - 关键原则
  359. - **严禁编造数据**:只能基于 get_query_suggestions 实际返回的结果进行分析
  360. - **空结果处理**:如果返回的列表为空([]),必须明确说明"未返回任何推荐词"
  361. - **不要猜测**:在 modify_query 的 reason 中,不能引用不存在的推荐词或评分
  362. - **如实记录**:每次分析都要如实反映实际返回的数据
  363. ## 工作流程
  364. ### 1. 理解原始问题
  365. - 仔细阅读<需求上下文>和<当前问题>
  366. - 提取问题的核心需求和关键概念
  367. - 明确问题的本质意图(what)、应用场景(where)、实现方式(how)
  368. ### 2. 动态探索策略
  369. **第一轮尝试:**
  370. - 使用原始问题直接调用 get_query_suggestions(query="原始问题")
  371. - **检查返回结果**:
  372. - 如果返回空列表 []:说明"该query未返回任何推荐词",需要简化或替换query
  373. - 如果有推荐词:查看每个推荐词的三层评估结果
  374. - **做出判断**:是否有符合条件的高质量推荐词?
  375. - 第一层:是否为知识需求 = "是"
  376. - 第二层:得分较高(体现意图匹配度)
  377. - 第三层:相关度满足度百分比较高(在"高度满足"档位)
  378. **后续迭代:**
  379. 如果没有符合条件的高分推荐词(或返回空列表),必须先调用 modify_query 记录修改,然后再次搜索:
  380. **工具使用流程:**
  381. 1. **分析三层评估反馈**(必须基于实际返回的数据):
  382. - **情况A - 返回空列表**:
  383. * 在 reason 中说明:"第X轮未返回任何推荐词,可能是query过于复杂或生僻"
  384. * 不能编造任何推荐词或评分
  385. - **情况B - 有推荐词但不符合条件**:
  386. * **第一层过滤**:哪些推荐词"是否为知识需求"为"否"?直接忽略
  387. * **第二层分析**:查看"知识动机判定得分",分析判定依据,了解意图匹配情况
  388. - 得分较高但仍不够:哪些维度拉低了得分?
  389. - 得分偏低:核心意图偏离,需要调整query方向
  390. * **第三层分析**:分析"相关度满足度百分比"和相关度依据:
  391. - 高度满足档位:可作为最终结果
  392. - 中高满足档位:评估是否可接受作为备选
  393. - 中低及以下:分析偏离的具体原因(泛化/具体化/动作不符/对象错位等)
  394. * 推荐词整体趋势是什么?(过于泛化/具体化/领域偏移等)
  395. 2. **决策修改策略**:基于实际三层评估反馈,调用 modify_query(original_query, operation_type, new_query, reason)
  396. - reason 必须引用具体的三层数据,不能编造
  397. - 例如:"第1轮共返回5个推荐词,2个通过第一层知识识别,其第二层得分分别为X和Y,判定依据显示[具体原因],第三层相关度为Z%,依据为[具体内容]..."
  398. 3. 使用返回的 new_query 调用 get_query_suggestions
  399. 4. 分析新的三层评估结果,如果仍不满足,重复步骤1-3
  400. **四种操作类型(operation_type):**
  401. - **简化**:删除冗余词汇,提取核心关键词(当推荐词过于发散时)
  402. - **扩展**:添加限定词或场景描述(当推荐词过于泛化时)
  403. - **替换**:使用同义词、行业术语或口语化表达(当推荐词偏离核心时)
  404. - **组合**:调整关键词顺序或组合方式(当推荐词结构不合理时)
  405. **每次修改的reason必须包含:**
  406. - 上一轮评估结果的关键发现(引用具体的score和reason)
  407. - 基于评估反馈,为什么这样修改
  408. - 预期这次修改会带来什么改进
  409. ### 3. 决策标准(基于三层评估)
  410. **优先级判断:**
  411. 1. **首先检查第一层**:是否为知识需求 = "是"(否则直接忽略)
  412. 2. **然后检查第二层**:知识动机判定得分,综合评估意图匹配度
  413. - 得分高:核心动词、目标对象、终极目的基本吻合
  414. - 得分中等:部分维度匹配,需分析判定依据
  415. - 得分低:意图明显偏离,考虑调整query
  416. 3. **最后检查第三层**:相关度满足度百分比,查看所属档位
  417. - **高度满足档位**:核心要素高度匹配,可作为最终结果
  418. - **中高满足档位**:基本匹配但有泛化/具体化,可作为备选
  419. - **中低满足档位**:部分相关但存在明显差异,需要继续优化
  420. - **低度满足档位**:严重偏离
  421. **综合判断:**
  422. - 理想结果:第一层通过 + 第二层高分 + 第三层高度满足档位
  423. - 可接受结果:第一层通过 + 第二层较好 + 第三层中高满足档位(作为备选)
  424. - 需要优化:任何一层表现不佳
  425. ### 4. 迭代终止条件
  426. - **成功终止**:找到至少一个高质量的推荐query(三层评估均表现良好)
  427. - **尝试上限**:最多迭代5轮,避免无限循环
  428. - **无推荐词**:推荐接口返回空列表或错误
  429. ### 5. 输出要求
  430. **成功找到高质量query时,输出格式:**
  431. ```
  432. 原始问题:[原问题]
  433. 优化后的query:[最终找到的推荐query]
  434. 三层评估结果:
  435. - 第一层(知识识别):[是/否],[判定依据]
  436. - 第二层(知识动机判定):得分 [X.X],[判定依据摘要]
  437. - 第三层(相关性评分):[X]%([满足档位]),[相关度依据摘要]
  438. ```
  439. **未找到理想query时,输出格式:**
  440. ```
  441. 原始问题:[原问题]
  442. 结果:未找到完全符合条件的推荐query
  443. 最佳备选(如有):[最接近的推荐词]
  444. - 三层评估:第一层[结果]、第二层[得分]、第三层[百分比%]
  445. 建议:[基于实际情况的建议]
  446. ```
  447. ## 注意事项
  448. - **第一轮必须使用原始问题**:直接调用 get_query_suggestions(query="原始问题")
  449. - **后续修改必须调用 modify_query**:不能直接用新query调用 get_query_suggestions
  450. - **重点关注三层评估结果**:每次都要仔细分析三层评估数据
  451. - **基于数据决策**:修改策略必须基于三层评估反馈,不能凭空猜测
  452. - **引用具体评分**:在分析和决策时,引用具体的三层数据
  453. * 第一层:是否为知识需求及判定依据
  454. * 第二层:知识动机判定得分及判定依据
  455. * 第三层:相关度满足度百分比及相关度依据
  456. - **分层过滤**:按照第一层→第二层→第三层的顺序逐层分析
  457. - **严禁编造数据**:
  458. * 如果返回空列表,必须在 reason 中明确说明"未返回任何推荐词"
  459. * 不能引用不存在的推荐词、评分或评估理由
  460. * 每次 modify_query 的 reason 必须基于上一轮实际返回的三层评估结果
  461. * 必须引用实际的数值和判定依据,不能编造
  462. """.strip()
  463. async def main(input_dir: str):
  464. current_time, log_url = set_trace()
  465. # 从目录中读取固定文件名
  466. input_context_file = os.path.join(input_dir, 'context.md')
  467. input_q_file = os.path.join(input_dir, 'q.md')
  468. q_context = read_file_as_string(input_context_file)
  469. q = read_file_as_string(input_q_file)
  470. q_with_context = f"""
  471. <需求上下文>
  472. {q_context}
  473. </需求上下文>
  474. <当前问题>
  475. {q}
  476. </当前问题>
  477. """.strip()
  478. # 获取当前文件名作为版本
  479. version = os.path.basename(__file__)
  480. version_name = os.path.splitext(version)[0] # 去掉 .py 后缀
  481. # 日志保存到输入目录的 output/版本/时间戳 目录下
  482. log_dir = os.path.join(input_dir, "output", version_name, current_time)
  483. run_context = RunContext(
  484. version=version,
  485. input_files={
  486. "input_dir": input_dir,
  487. "context_file": input_context_file,
  488. "q_file": input_q_file,
  489. },
  490. q_with_context=q_with_context,
  491. q_context=q_context,
  492. q=q,
  493. log_dir=log_dir,
  494. log_url=log_url,
  495. )
  496. agent = Agent[RunContext](
  497. name="Query Optimization Agent",
  498. instructions=insrtuctions,
  499. tools=[get_query_suggestions, modify_query],
  500. )
  501. result = await Runner.run(agent, input=q_with_context, context = run_context,)
  502. print(result.final_output)
  503. # 保存最终输出到 RunContext
  504. run_context.final_output = str(result.final_output)
  505. # 保存 RunContext 到 log_dir
  506. os.makedirs(run_context.log_dir, exist_ok=True)
  507. context_file_path = os.path.join(run_context.log_dir, "run_context.json")
  508. with open(context_file_path, "w", encoding="utf-8") as f:
  509. json.dump(run_context.model_dump(), f, ensure_ascii=False, indent=2)
  510. print(f"\nRunContext saved to: {context_file_path}")
  511. if __name__ == "__main__":
  512. parser = argparse.ArgumentParser(description="搜索query优化工具")
  513. parser.add_argument(
  514. "--input-dir",
  515. type=str,
  516. default="input/简单扣图",
  517. help="输入目录路径,默认: input/简单扣图"
  518. )
  519. args = parser.parse_args()
  520. asyncio.run(main(args.input_dir))