生成流程
如果你还在用 DALL·E 路线做图片,最稳的生成方法依然不是“一次把所有要求都塞进去”,而是先出方向,再做筛选。这个方法在 GPT Image 时代也照样成立。
一条更务实的生成流程
- 先写清楚用途。
- 再写主体、场景和关键元素。
- 最后补风格、光线、镜头感和比例。
- 一次生成多个方向,再挑一个继续细化。
很多图片生成失败,不是模型不行,而是第一步根本没说明图片要拿去做什么。
为什么“用途”很关键
同样是一张产品图:
- 电商主图
- 博客封面
- 广告 KV
- App onboarding 插图
这四种用途对留白、主体大小、比例和风格要求完全不同。
如果你不先说清楚用途,模型就只能给你一个“看起来还行”的中间答案。
先做方向图,不要一上来追求成片
一个更现实的工作流通常是:
- 第一轮只看构图和主体
- 第二轮再修风格和材质
- 第三轮才处理细节和文字区域
这样比第一轮就试图把所有细节锁死更容易稳定。
用 DALL·E 生成时要知道的边界
OpenAI 当前文档里,dall-e-3 仍然偏向更高质量生成,但它本身只支持 Generations,不支持编辑。
所以如果你的工作流需要大量改图或多轮精修,DALL·E 本身就不是最顺手的路线。
一套简单可复用的写法
你可以先按这个顺序组织 prompt:
用途 + 主体 + 场景 + 风格 + 光线 + 构图 + 比例
例如:
为电商详情页生成一张耳机主图,主体为银色头戴式耳机,
放在极简白色背景上,柔和棚拍光线,偏高级科技感,
主体居中,保留右侧文案留白,竖版 4:5。
生成后第一眼先看什么
- 主体是不是清楚
- 比例是不是对
- 有没有给文案预留空间
- 风格是不是已经偏到别的方向
这些问题越早发现,返工越省时间。