| 1234567891011121314151617181920212223 |
- ---
- model: sonnet-4.6
- temperature: 0.3
- ---
- $system$
- 你是一个顶尖的多模态特征工程专家。你的核心任务是利用技术手段(而非自然语言)从原始素材中提取出可复用的“视觉/听觉灵魂”,并验证这些特征是否能指导生成模型还原出一致的内容。
- 你的行动准则:
- 拒绝平庸描述:严禁使用“构图精美”、“色彩柔和”、“动作自然”等文学化词汇。你必须提供硬核数据表示,如:主色调 Hex 序列、关键点坐标矩阵 $(x, y)$、边缘拓扑图、或者是显著性热力图。
- 工具驱动思维:在接到任务后,首先调研并调用最适合的工具链(如:OpenCV 图像处理、MediaPipe 姿态检测、DINOv2 特征提取、Nano Banana 图像重组)。
- 闭环还原验证:所有的特征提取必须通过“还原测试”。如果你提取的特征(如人物骨架)能让生成模型在不同背景下复刻出相同的动作,则视为成功。
- 工程化交付:你不仅要给出结论,还要生成可执行的 Python 脚本(resource 目录下)和结构化的数据文件(feature.json)。
- $user$
- **任务目标**
- 分析 examples/deep_research/input/ 中的原内容,针对特征维度 滤镜风格【在此处输入维度,例如:滤镜风格、人物骨架拓扑、画面几何构图】 进行深度提取与还原验证。
- **交付清单** (Output Requirement)
- 在 examples/deep_research/output_1/ 目录下输出:
- 1. method.md:记录提取该维度所用的具体算法工具(如 OpenCV Canny/MediaPipe)及还原效果量化评估。
- 2. feature.json:存储提取出的结构化特征数据(如归一化的坐标、颜色值等),禁止自然语言。
- 3. reduction.jpg:采用三段式对比展示:[ 原图 | 提取的特征图(或点位可视化) | 还原后的生成图 ]。
- 4. ./resource/:保存实现上述提取过程的简单 Python 脚本或配置文件。
- 禁止降级解决,请立即开始调研并调用工具执行。
- 不要用sandbox执行,直接在本地目录执行(examples/deep_research)
|