调研目标:搞清楚 OpenAI gpt-image-2 (ChatGPT Images 2.0)
调研时间:2026-04-27(模型于 2026-04-21 发布,距今 6 天)
调研者:砚(with 用户 Howard)
工作目录:/Users/sunlit/Profile/analysis/tool-research/openai-image2/
trace_id:oai-image2-research-001
决策:先用 WebSearch 确认 "openai image2" 指什么。理由:用户用了非官方简称,新模型且名称约定可能影响后续 query。
渠道与 query:
OpenAI gpt-image-2 releaseOpenAI image generation API gpt-image-1 vs gpt-image-2 differences结果:
gpt-image-2-2026-04-21反思:
决策:抓官方文档拿到第一手能力清单与 API 用法。这是 SOLID 的基础。
渠道与 URL:
openai.com/index/introducing-chatgpt-images-2-0/(403 — 官方公告页拒访)developers.openai.com/api/docs/models/gpt-image-2(模型卡)✅developers.openai.com/api/docs/guides/image-generation(API 指南)✅developers.openai.com/cookbook/examples/multimodal/image-gen-models-prompting-guide(prompting 最佳实践)✅community.openai.com/t/introducing-gpt-image-2-available-today-...(官方在 Dev Forum 的发布帖 + 用户回复)✅关键发现:
v1/images/generations + v1/images/edits(含 inpainting/mask)size: 1024×1024 / 1536×1024 / 2048×2048 / 3840×2160 / auto(最大边 3840px,比例 ≤ 3:1)quality: low / medium / high / auto(high 用于密集文字与 close-up portrait)format: png / jpeg / webp(JPEG 最快)output_compression: 0–100(仅 jpeg/webp)moderation: auto / low(控制内容过滤强度)n: 一次出多张input_fidelity(前代 1.5/1 才有;做编辑时无该参数)反思:
决策:拿 TechCrunch / VentureBeat / Wikipedia / 第三方评测的 hands-on 视角,验证官方说法且找出官方不会说的限制。
渠道与 URL:
en.wikipedia.org/wiki/GPT_Image ✅help.apiyi.com/.../gpt-image-2-vs-gpt-image-1-5-upgrade-8-features-en.html ✅(8 项升级清单)createvision.ai/guides/gpt-image-2-complete-guide ✅(含明确 "NOT optimal for" 段落)关键发现:
8 项升级(apiyi.com,需注意是 preview 阶段数据):
CreateVision 给的"NOT optimal for"清单(关键!):
TechCrunch 实测:
Wikipedia 串起完整时间线:
反思:
决策:GitHub 看 prompts 库 + 实战项目,能反映创作者怎么用。OpenAI Forum 看技术细节。
渠道与 query:
关键发现:
EvoLinkAI/awesome-gpt-image-2-prompts(5786⭐ — 最大、按用例分类)YouMind-OpenLab/awesome-gpt-image-2(3039⭐ "World's largest, 2000+, 每日更新")Anil-matcha/Awesome-GPT-Image-2-API-Prompts(1714⭐ — 针对 API 用户)freestylefly/awesome-gpt-image-2(917⭐ — "Prompt as Code" 工业级模板库,13 套模板,329 案例逆向工程)Jamailar/RedBox(820⭐ 自媒体小红书工作台用 gpt-image-2 出图);432539/gpt2api(1114⭐ 反向网关)ConardLi/garden-skills 已把 gpt-image-2 集成进 Claude/Skill 工作流stepfun-ai/Step1X-Edit(开源 image edit 模型,对标 gpt-image-2 的 edit)反思:
决策:中文社区提供大量真实用户的实操、踩坑、对比,是补充官方"什么场景"和"什么不行"最厚的层。
渠道与 query:
关键发现(按 source 浓缩):
知乎"灰度内测"测评(647 赞,作者 卡尔&阿汤):
知乎"实测设计行业完蛋了"(386 赞):
知乎"提示词写法"(288 赞,饭米粒):
{城市名} / {人物组合} / {品牌名} 这类参数化占位符——直接 prompt-as-code 模式小红书"高清化展板"(3907 赞):
小红书"奇怪纹路"(205 赞):
小红书"山西封神"(795 赞)+ "电商详情页教学"(395 赞)+ "设计展板"(1575 赞)+ "13MB 航拍图"(1438 赞):
反思:
决策:X 看一手国际反应与 combo 工作流;B 站补中文视频实测视角。
渠道与 query:
关键发现:
X 平台高赞内容(multi-tweet, hands-on):
@0xInk_ 11891 赞:"Just created my own AAA game with GPT image 2 and Seedance 2"@rileybrown 8179 赞:"GPT-Image-2... wtf... how"(震惊体)@arena 5718 赞:Image Arena #1 announcement@dreamwieber 4230 赞:Codex+GPT 5.5 一发命中(不是 image,但显示用户兴奋度)@D_studioproject 3226 赞:GPT Image 2 + Seedance 2.0 anime pipeline@HAL2400AI @oggii_0 @Ciri_ai @iX00AI:反复出现的 GPT Image 2 + Seedance 2.0 工作流——用 image-2 出 16-frame 动作 sheet → Seedance 2.0 生成视频@OpenAIDevs 引用 OpenArt:"gpt-image-2 bridges the gap between text and visual planning"——visual planning 是核心定位语@higgsfield 1306 赞:image-2.0 接入 Higgsfield,"perfect text rendering and ChatGPT-level reasoning"@Angaisb_ 2179 赞:GPT Image 2 + Codex 强组合(动画网站)B 站视频核心信号(list 标题反映创作者偏好):
反思:
核心定位(一句话): gpt-image-2 是 OpenAI 2026-04-21 发布的 SOTA 图像生成 + 编辑模型,最大区分点是生成前会做 reasoning + visual planning,因此在文字密集设计、真实世界 UI/品牌复刻、多语言文本(含 CJK/RTL)、信息图、和参考图编辑(最多 16 张)这五类高约束任务上,相比扩散模型一代有质的跃迁。
最适合的场景(routing keywords):
最佳实践:
v1/images/generations(生成)+ v1/images/edits(编辑);size/quality/format/n/moderation 可调;mask 需 alpha channel不适合的场景:
input_fidelity 参数:本代不支持(需要的话用 1.5)Skill description 候选语(用户需求 1):
用 OpenAI gpt-image-2 在 ChatGPT 或 OpenAI Image API 中生成或编辑图像。最适合:①带大量清晰文字的设计稿(招聘海报/电商详情页/课件/包装/多语言图,CJK/RTL 字符 99% 准确);②复刻真实世界 UI 与品牌界面(伪造逼真的小红书/B 站/微信/YouTube 截图、官网 mockup);③信息密度大的 infographic / 时间线 / 图鉴;④参考图驱动的精修(最多 16 张参考,做一致性控制、风格迁移、白底产品图、详情页长图);⑤视频 storyboard / keyframer(配 Seedance 等视频模型)。不要用于:极致一致性的亚洲人写实人像(Nano Banana Pro 更稳)、批量草稿速度优先(gpt-image-1-mini 更便宜)、风格化插画(Seedream 5 更优)、需要 fine-tune 或 streaming 的场景。
调研有效率:
没做到的 / 已知缺口:
对调研方法的反思: