05
AI 视频生成入门
AI 视频生成入门:开启“一人影视公司”时代
AI 视频生成(Video Generation)是目前 AIGC 领域最前沿、最具冲击力的技术。从最初的 2 秒“果冻感”视频,到现在的 4K 电影质感长片段,AI 正在彻底重塑短视频、广告和影视制作的门槛。
🎥 核心认知
- 动态逻辑: 视频是每秒 24 帧以上的图片,AI 负责生成每一帧并保持一致性。
- 运镜即导演: 掌握
Pan,Tilt,Zoom是从“玩家”变“专业导演”的分水岭。- 图生视频 (I2V) 为王: 现阶段为了保持画质,通常先用 MJ 生图,再将其动态化。
2025-2026 主流 AI 视频模型全景图
| 模型名称 | 擅长领域 | 核心参数/功能 |
|---|---|---|
| Kling (可灵) | 物理模拟、超长生成 | 支持 2 分钟视频,动作连贯性极强。 |
| Runway Gen-3 | 电影质感、光影控制 | 业内公认的画质巅峰,光影过渡极其细腻。 |
| Luma Dream Machine | 生成速度、镜头灵活性 | 端到端生成极快,支持“起始帧 + 结束帧”控制。 |
| Pika 2.5 | 创意动效、特定风格 | 独特的 Pikaffects (挤压、融化等物理特效)。 |
| Hailuo (海螺) | 真实感、人脸稳定性 | 对人脸细节的还原非常出色。 |
AI 视频生成的三个实战模式
1. 文生视频 (Text-to-Video / T2V)
场景: 概念片、抽象背景、梦境风格。
- 缺点: 角色长相难以预测。
- 技巧: 使用“光影+氛围”词汇,而不是具体的微小动作。
2. 图生视频 (Image-to-Video / I2V) —— 推荐流程
场景: 商业广告、剧情片、品牌展示。
- 步骤: 先在 Midjourney 中调出满意的构图和光影,再导入视频 AI。
- 核心: 图片决定了画面的上限,视频 AI 决定了动作的连贯性。
3. 视频生视频 (Video-to-Video / V2V)
场景: 变脸、换装、真人转动漫、实拍转 3D。
- 核心: 保持原视频的动作节奏,仅改变视觉风格。
导演课:掌握摄影机控制语言
想要拍出“大片感”,你必须学会用 Prompt 遥控 AI 的镜头:
1. 水平平移 (Pan)
- Prompt:
Camera pans left to right(镜头自左向右摇摆)。 - 效果: 展现环境的广阔感或追踪移动主体。
2. 垂直摇摄 (Tilt)
- Prompt:
Camera tilts up(镜头自下而上仰拍)。 - 效果: 展现建筑的高大或主体的威严。
3. 纵深推进/拉远 (Zoom/Dolly)
- Prompt:
Dolly zoom in(推镜头聚焦) 或Zoom out(拉镜头展现环境)。 - 效果: 聚焦情绪或交代空间关系。
4. 动态强度控制 (Motion Control)
- 参数:
Motion: 1-10或Motion Bucket。 - 建议:
- 值小 (1-3): 适合静谧的人像、云朵流动。
- 值大 (7-10): 适合动作、爆炸、奔跑。
AI 视频避坑指南(QA 表)
| 痛点 | 原因分析 | 解决方案 |
|---|---|---|
| 画面疯狂闪烁 | 帧间差异过大 | 降低 Motion 值;使用 Image-to-Video 模式。 |
| 肢体出现畸形 | 扩散模型的物理弱点 | 避开大跨度的肢体动作;使用“局部重绘”修复。 |
| 角色长得不像 | 缺乏一致性引用 | 使用支持 Character Reference (CREF) 的模型。 |
| 生成内容太短 | 模型限制 | 使用 Kling 或 Runway 的“视频延长” (Extend) 功能。 |
动手练习
- “活”起来的照片: 找一张你拍的风景照,用 Luma 尝试让它里面的流水或云彩动起来。
- 运镜对比: 对同一个 Prompt,分别加上
Pan和Zoom的指令,观察镜头的叙事效果。 - 分镜拼凑: 尝试生成两段 5 秒的视频(起因+结果),在剪辑软件里接在一起。
相关阅读
小结
- 画质看原图: 想要视频美,先在 MJ 里打好草稿。
- 运镜定专业度: 熟练使用摄影机指令,拒绝死板的静态生成。
- 学会筛选: AI 视频仍有随机性,十次生成里选一次完美的。
- 后期是关键: 视频 AI 只是素材库,真正的成片需要 PR/剪映的最终修饰。