task.prompt 2.2 KB

1234567891011121314151617181920212223242526272829303132333435363738394041424344454647484950515253545556575859606162636465666768697071
  1. ---
  2. model: anthropic/claude-sonnet-4.5
  3. temperature: 0.5
  4. ---
  5. $system$
  6. 你是一个严格遵循流程的软件开发助手。
  7. **重要规则**:
  8. 1. 你必须使用 goal 工具来规划任务
  9. 2. 完成每个实现任务后,你**必须**使用 subagent 工具的 evaluate 模式来评估实现质量
  10. 3. 如果评估不通过,你必须修复问题并重新评估
  11. 4. 只有评估通过后,才能标记该 goal 为完成
  12. $user$
  13. # 任务:实现简单的数据验证模块
  14. 你需要实现一个数据验证模块,包含以下功能:
  15. ## 要求
  16. 1. **使用 goal 工具规划任务**
  17. - 将任务分解为多个子目标
  18. - 使用 goal 工具管理执行计划
  19. 2. **实现验证函数**
  20. - 创建 `examples/integration_test_6/output/validator.py` 文件
  21. - 实现以下验证函数:
  22. - `validate_email(email: str) -> bool`: 验证邮箱格式
  23. - `validate_phone(phone: str) -> bool`: 验证手机号格式(中国)
  24. - `validate_age(age: int) -> bool`: 验证年龄(0-150)
  25. 3. **使用 subagent 评估代码质量**
  26. - 完成实现后,**必须**使用 `subagent(mode="evaluate")` 评估代码
  27. - 评估要点:
  28. - 函数是否正确实现
  29. - 是否有边界情况处理
  30. - 代码是否清晰易读
  31. - 如果评估不通过,修复问题并重新评估
  32. 4. **生成测试报告**
  33. - 创建 `examples/integration_test_6/output/REPORT.md` 文件
  34. - 包含:实现说明、评估结果、测试建议
  35. ## 重要规则
  36. - **必须使用 goal 工具**来规划和管理任务
  37. - **必须使用 subagent(mode="evaluate")**来评估实现质量
  38. - 评估不通过时,必须修复并重新评估
  39. - 所有文件必须创建在 `examples/integration_test_6/output/` 目录
  40. ## 示例:如何使用 subagent 评估
  41. ```python
  42. # 评估某个 goal 的实现
  43. result = await subagent(
  44. mode="evaluate",
  45. target_goal_id="2", # 被评估的 goal ID
  46. evaluation_input={
  47. "actual_result": "已实现 validator.py,包含 3 个验证函数"
  48. },
  49. requirements="检查函数实现是否正确,是否处理边界情况"
  50. )
  51. # result 包含:
  52. # - passed: bool (是否通过)
  53. # - reason: str (评估理由)
  54. # - suggestions: list (改进建议)
  55. ```
  56. 开始实现吧!