即梦Seedance 2.0完整使用手册

一、Seedance 2.0概述

即梦Seedance 2.0字节跳动推出的新一代 ai 视频生成模型。它采用双分支扩散变换器架构,可以同时生成视频和音频。 Seedance 2.0 的最大突破,是从“文生视频”升级为多模态视频创作平台,让创作从“生成”走向“控制”。 《黑神话:悟空》制作人冯骥评价它为“当前地表最强视频生成模型”。

即梦Seedance 2.0 完整使用手册

Seedance 2.0核心特点

  • 快速出片:用大概60秒就能做出带原声的多镜头视频。

  • 输入多样:能同时用文字、图片、视频、声音这几种内容来输入。

  • 操作简单:自动分镜头和运镜,不用写复杂的提示来说镜头怎么动。

  • 声音画面合得上:直接生成时就让声音和画面对上,嘴型和说话能对得准。

二、Seedance 2.0访问入口

1. 即梦 AI(主要入口)

  • 网址:https://jimeng.jianying.com/

  • 使用条件:会员用户可直接使用(会员费用约69元起)

  • 支持平台:Web 端、移动端 App

2. 豆包 App

  • 在豆包中使用话术调用:用Seedance 2.0生成一个邵氏电影风格的打斗视频,可让豆包一步步优化提示词

3. 小云雀 App

  • 提供3次免费体验机会

三、两种生成模式详解

模式一:首尾帧模式(适合新手)

  • 适用场景:只有一张首帧图(或尾帧图)+ 文字提示词

  • 操作步骤:

  • 选择"AI视频" → 选择"Seedance 2.0" → 选择"单帧/首尾帧"模式

  • 上传首帧图片(可选上传尾帧图片)

  • 编写提示词描述视频内容

  • 设置参数(时长、比例等)

  • 点击生成

  • 特点:最简单的起步方式,适合快速尝试

模式二:全能参考模式

模式二:全能参考模式(⭐核心玩法)

  • 适用场景:需要混合输入图片 + 视频 + 音频 + 文字进行精准控制

  • 操作步骤:

  • 选择"AI视频" → 选择"Seedance 2.0" → 选择"全能参考"模式

  • 上传参考素材(最多12个文件):

  • 图片:最多9张(角色、场景、风格)

  • 视频:最多3段(动作、运镜参考)

  • 音频:最多3段(配乐、音效参考)

  • 使用 @素材名 语法指定每个素材的用途

  • 编写详细提示词

  • 生成视频

四、@引用语法详解

基础引用格式

@图片1 作为首帧
@视频1 参考镜头语言  
@音频1 用于配乐
@图片2 作为角色参考

高级组合用法

用法场景提示词示例
指定首帧@图片1 作为首帧,一位少女站在樱花树下
动作参考@图1 为首帧,参考@视频1 的打斗动作
多图连续动作@图1@图2@图3,角色从跳跃直接过渡到翻滚
视频延长将@视频1 延长5秒(生成时长也选5秒)
视频融合在@视频1 和@视频2 之间加一个场景,内容为xxx
风格+动作@图片1 作为角色,参考@视频1 的运镜风格,@音频1 作为背景音乐

@的正确写法:

定首帧和参考:@图片1 作为首帧,参考 @视频1 的镜头语言,@音频1 用于配乐

定角色:@图片1 的女生作为主角,@图片2 的男生作为配角

定运镜:完全参考 @视频1 的所有运镜效果和转场

定场景:左边场景参考 @图片3,右边场景参考 @图片4

定动作:@图片1 的人物参考 @视频1 中的舞蹈动作

定音色:旁白的音色参考 @视频1

💡 唤起"@"的方法:输入框打"@"字符,或点击参数工具栏的"@"按钮

💡 提示:文件数量有限(最多12个),优先上传对画面和节奏影响最大的素材

五、提示词编写指南

优秀提示词结构

[场景描述] + [人物动作] + [镜头运动] + [氛围情绪] + [特殊要求]

示例提示词

基础示例:

樱花树下,一个女孩扭头看向一只猫,花瓣飘落,微风吹过她的头发。女孩摸了摸猫的头,对猫说"你好呀,小家伙",最后画面定格在女孩脸上。

复杂运镜示例:

镜头跟随黑衣男子快速逃亡,后面一群人在追,镜头转为侧面跟拍,人物惊慌撞倒路边的水果摊爬起来继续逃,人群慌乱的声音。

多模态参考示例:

@图片1 作为首帧,@视频1 参考镜头运动方式,
@音频1 作为背景音乐。一位武侠在竹林中舞剑,剑气纵横,落叶纷飞,画面从全景缓慢推至特写,氛围苍凉悲壮。

提示词优化技巧

  • 具体化:描述具体的动作、表情、服装细节

  • 场景感:明确时间、地点、光线条件

  • 运镜感:即使不详细描述,模型也会自动分镜,但可指定特殊运镜需求

  • 情绪词:使用"苍凉"、"欢快"、"紧张"等情绪词引导氛围

六、参数设置详解

基础参数

参数项选项说明
视频比例16:9 / 9:16 / 1:1横屏适合YouTube/B站,竖屏适合抖音/TikTok
视频时长5-15秒标准生成时长约15秒
视觉风格写实、电影、动漫、赛博朋克等根据内容选择整体风格
生成积分约30积分/15秒即梦会员体系内消耗

高级设置

  • 首帧控制:上传第一张图确定视频起始画面

  • 尾帧控制:上传最后一张图确定视频结束画面

  • 参考强度:控制AI对参考素材的学习程度

七、核心功能深度解析

1. 自分镜与自运镜

  • 突破点:无需精确描述"镜头从左向右平移"、"先全景后特写"等复杂运镜指令。

  • 工作原理:模型根据情节自动规划分镜和运镜,生成具有景别变化、机位运动、时空连贯的序列。

  • 效果:一段简单提示词即可生成堪比专业导演运镜的效果。

2. 全方位多模态参考

支持文件:

  • 图片×9:角色设定、场景氛围、服装细节

  • 视频×3:运镜风格、动作姿态、节奏参考

  • 音频×3:背景音乐、音效风格、配音参考

优势:像素级引导生成结果,有效缓解AI生成内容随机性过强的问题。

3. 原生音视频同步

能力:

  • 人物口型与语音节奏精准匹配

  • 面部表情与音频情绪对齐

  • 8+语言音素级口型同步

  • 环境音效与场景材质物理匹配

  • 价值:无需后期配音,实现真正的一键生成完整视频。

4. 多镜头叙事能力

特点:

  • 在多个镜头间保持角色外观一致

  • 灯光与色调连贯

  • 整体视觉风格统一

  • 应用:可直接生成包含多个镜头切换的完整叙事片段,无需复杂工作流修复。

八、后期编辑与优化

生成后功能

功能说明
重新生成对不满意的结果调整提示词或参考素材后重试
生成配乐一键添加AI生成的背景音乐
插值帧平滑运动,提升画面流畅度
定向编辑直接修改不满意的部分,降低废片率

下载与分享

  • 分辨率:支持1080p-2K高清输出

  • 格式:标准视频格式,兼容各平台

  • 版权:生成视频拥有完整商业使用权,无需署名

九、应用场景

1. AI漫剧/短剧制作

工作流:

  • 用LLM将小说拆解为分镜脚本

  • 用Seedream 5.0制作角色定妆照(正脸、侧脸、全身)

  • 用Seedance 2.0批量生成5-15秒镜头

  • 利用多镜头叙事功能保持角色一致性

  • 原生生成配音与音效

2. 电商广告

  • 商品展示视频快速生成

  • 多角度镜头自动切换

  • 背景音乐与产品氛围匹配

3. 影视预演

  • 快速生成概念验证视频

  • 测试不同运镜方案

  • 降低前期拍摄成本

4. 社交媒体内容

  • 抖音/TikTok竖屏视频

  • 小红书种草视频

  • YouTube横屏内容

十、使用限制与注意事项

⚠️当前限制

  • 真人内容限制:暂不支持输入真人图片或视频作为主体参考

  • 即梦Web端、小云雀会明确提示暂不支持真人人脸作为参考素材

  • 即梦App与豆包App中,如需使用真人形象,需通过录制本人形象与声音完成真人校验后,方可制作数字分身

生成建议

  • 避免简单提示词:在动画人物面部情感表达上,过于简单的提示词可能导致表情僵硬

  • 中文文本:中文文本呈现方面仍有提升空间

  • 积分管理:关注即梦会员积分消耗,合理规划生成次数

十一、快速上手 checklist

  • 访问即梦AI官网(jimeng.jianying.com)并登录

  • 确认会员状态(或在小云雀领取免费体验)

  • 准备参考素材(图片/视频/音频)

  • 选择生成模式(首尾帧 or 全能参考)

  • 编写详细提示词(场景+动作+氛围)

  • 使用@语法指定素材用途(全能参考模式)

  • 设置视频参数(比例、时长、风格)

  • 生成并预览结果

  • 使用后期功能优化(如需)

  • 下载高清视频

即梦Seedance 2.0官方使用手册:https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ

收藏