即梦Seedance 2.0完整使用手册
一、Seedance 2.0概述
即梦Seedance 2.0 是字节跳动推出的新一代 ai 视频生成模型。它采用双分支扩散变换器架构,可以同时生成视频和音频。 Seedance 2.0 的最大突破,是从“文生视频”升级为多模态视频创作平台,让创作从“生成”走向“控制”。 《黑神话:悟空》制作人冯骥评价它为“当前地表最强视频生成模型”。

Seedance 2.0核心特点
快速出片:用大概60秒就能做出带原声的多镜头视频。
输入多样:能同时用文字、图片、视频、声音这几种内容来输入。
操作简单:自动分镜头和运镜,不用写复杂的提示来说镜头怎么动。
声音画面合得上:直接生成时就让声音和画面对上,嘴型和说话能对得准。
二、Seedance 2.0访问入口
1. 即梦 AI(主要入口)
使用条件:会员用户可直接使用(会员费用约69元起)
支持平台:Web 端、移动端 App
2. 豆包 App
在豆包中使用话术调用:用Seedance 2.0生成一个邵氏电影风格的打斗视频,可让豆包一步步优化提示词。
3. 小云雀 App
提供3次免费体验机会
三、两种生成模式详解
模式一:首尾帧模式(适合新手)
适用场景:只有一张首帧图(或尾帧图)+ 文字提示词
操作步骤:
选择"AI视频" → 选择"Seedance 2.0" → 选择"单帧/首尾帧"模式
上传首帧图片(可选上传尾帧图片)
编写提示词描述视频内容
设置参数(时长、比例等)
点击生成
特点:最简单的起步方式,适合快速尝试

模式二:全能参考模式(⭐核心玩法)
适用场景:需要混合输入图片 + 视频 + 音频 + 文字进行精准控制
操作步骤:
选择"AI视频" → 选择"Seedance 2.0" → 选择"全能参考"模式
上传参考素材(最多12个文件):
图片:最多9张(角色、场景、风格)
视频:最多3段(动作、运镜参考)
音频:最多3段(配乐、音效参考)
使用 @素材名 语法指定每个素材的用途
编写详细提示词
生成视频
四、@引用语法详解
基础引用格式
@图片1 作为首帧 @视频1 参考镜头语言 @音频1 用于配乐 @图片2 作为角色参考
高级组合用法
| 用法场景 | 提示词示例 |
|---|---|
| 指定首帧 | @图片1 作为首帧,一位少女站在樱花树下 |
| 动作参考 | @图1 为首帧,参考@视频1 的打斗动作 |
| 多图连续动作 | @图1@图2@图3,角色从跳跃直接过渡到翻滚 |
| 视频延长 | 将@视频1 延长5秒(生成时长也选5秒) |
| 视频融合 | 在@视频1 和@视频2 之间加一个场景,内容为xxx |
| 风格+动作 | @图片1 作为角色,参考@视频1 的运镜风格,@音频1 作为背景音乐 |
@的正确写法:
定首帧和参考:@图片1 作为首帧,参考 @视频1 的镜头语言,@音频1 用于配乐
定角色:@图片1 的女生作为主角,@图片2 的男生作为配角
定运镜:完全参考 @视频1 的所有运镜效果和转场
定场景:左边场景参考 @图片3,右边场景参考 @图片4
定动作:@图片1 的人物参考 @视频1 中的舞蹈动作
定音色:旁白的音色参考 @视频1
💡 唤起"@"的方法:输入框打"@"字符,或点击参数工具栏的"@"按钮
💡 提示:文件数量有限(最多12个),优先上传对画面和节奏影响最大的素材
五、提示词编写指南
优秀提示词结构
[场景描述] + [人物动作] + [镜头运动] + [氛围情绪] + [特殊要求]
示例提示词
基础示例:
樱花树下,一个女孩扭头看向一只猫,花瓣飘落,微风吹过她的头发。女孩摸了摸猫的头,对猫说"你好呀,小家伙",最后画面定格在女孩脸上。
复杂运镜示例:
镜头跟随黑衣男子快速逃亡,后面一群人在追,镜头转为侧面跟拍,人物惊慌撞倒路边的水果摊爬起来继续逃,人群慌乱的声音。
多模态参考示例:
@图片1 作为首帧,@视频1 参考镜头运动方式, @音频1 作为背景音乐。一位武侠在竹林中舞剑,剑气纵横,落叶纷飞,画面从全景缓慢推至特写,氛围苍凉悲壮。
提示词优化技巧
具体化:描述具体的动作、表情、服装细节
场景感:明确时间、地点、光线条件
运镜感:即使不详细描述,模型也会自动分镜,但可指定特殊运镜需求
情绪词:使用"苍凉"、"欢快"、"紧张"等情绪词引导氛围
六、参数设置详解
基础参数
| 参数项 | 选项 | 说明 |
|---|---|---|
| 视频比例 | 16:9 / 9:16 / 1:1 | 横屏适合YouTube/B站,竖屏适合抖音/TikTok |
| 视频时长 | 5-15秒 | 标准生成时长约15秒 |
| 视觉风格 | 写实、电影、动漫、赛博朋克等 | 根据内容选择整体风格 |
| 生成积分 | 约30积分/15秒 | 即梦会员体系内消耗 |
高级设置
首帧控制:上传第一张图确定视频起始画面
尾帧控制:上传最后一张图确定视频结束画面
参考强度:控制AI对参考素材的学习程度
七、核心功能深度解析
1. 自分镜与自运镜
突破点:无需精确描述"镜头从左向右平移"、"先全景后特写"等复杂运镜指令。
工作原理:模型根据情节自动规划分镜和运镜,生成具有景别变化、机位运动、时空连贯的序列。
效果:一段简单提示词即可生成堪比专业导演运镜的效果。
2. 全方位多模态参考
支持文件:
图片×9:角色设定、场景氛围、服装细节
视频×3:运镜风格、动作姿态、节奏参考
音频×3:背景音乐、音效风格、配音参考
优势:像素级引导生成结果,有效缓解AI生成内容随机性过强的问题。
3. 原生音视频同步
能力:
人物口型与语音节奏精准匹配
面部表情与音频情绪对齐
8+语言音素级口型同步
环境音效与场景材质物理匹配
价值:无需后期配音,实现真正的一键生成完整视频。
4. 多镜头叙事能力
特点:
在多个镜头间保持角色外观一致
灯光与色调连贯
整体视觉风格统一
应用:可直接生成包含多个镜头切换的完整叙事片段,无需复杂工作流修复。
八、后期编辑与优化
生成后功能
| 功能 | 说明 |
|---|---|
| 重新生成 | 对不满意的结果调整提示词或参考素材后重试 |
| 生成配乐 | 一键添加AI生成的背景音乐 |
| 插值帧 | 平滑运动,提升画面流畅度 |
| 定向编辑 | 直接修改不满意的部分,降低废片率 |
下载与分享
分辨率:支持1080p-2K高清输出
格式:标准视频格式,兼容各平台
版权:生成视频拥有完整商业使用权,无需署名
九、应用场景
1. AI漫剧/短剧制作
工作流:
用LLM将小说拆解为分镜脚本
用Seedream 5.0制作角色定妆照(正脸、侧脸、全身)
用Seedance 2.0批量生成5-15秒镜头
利用多镜头叙事功能保持角色一致性
原生生成配音与音效
2. 电商广告
商品展示视频快速生成
多角度镜头自动切换
背景音乐与产品氛围匹配
3. 影视预演
快速生成概念验证视频
测试不同运镜方案
降低前期拍摄成本
4. 社交媒体内容
抖音/TikTok竖屏视频
小红书种草视频
YouTube横屏内容
十、使用限制与注意事项
⚠️当前限制
真人内容限制:暂不支持输入真人图片或视频作为主体参考
即梦Web端、小云雀会明确提示暂不支持真人人脸作为参考素材
即梦App与豆包App中,如需使用真人形象,需通过录制本人形象与声音完成真人校验后,方可制作数字分身
生成建议
避免简单提示词:在动画人物面部情感表达上,过于简单的提示词可能导致表情僵硬
中文文本:中文文本呈现方面仍有提升空间
积分管理:关注即梦会员积分消耗,合理规划生成次数
十一、快速上手 checklist
访问即梦AI官网(jimeng.jianying.com)并登录
确认会员状态(或在小云雀领取免费体验)
准备参考素材(图片/视频/音频)
选择生成模式(首尾帧 or 全能参考)
编写详细提示词(场景+动作+氛围)
使用@语法指定素材用途(全能参考模式)
设置视频参数(比例、时长、风格)
生成并预览结果
使用后期功能优化(如需)
下载高清视频
即梦Seedance 2.0官方使用手册:https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ
专业论文写作-降AI率
Ai应用
Ai资讯
漫剧一条龙
爆单神器-绘蛙
字节龙虾ArkClaw










