AniSora
AniSora简介
AniSora是什么?
AniSora(全名 Index-AniSora)是哔哩哔哩(B站)开源的动漫视频生成模型,被叫做“献给二次元世界的开源礼物”。它是现在最强的开源动漫视频生成模型,专门给动漫内容创作做的优化。
项目在2025年5月正式发布并开源,用的是 Apache 2.0 许可证,个人和商业都能免费用。AniSora 在 IJCai'25 国际学术会议上论文被认可,代表动漫视频生成的新技术突破。

版本演进
V1.0:基于 CogVideoX-5B 模型,能局部区域控制和时序控制
V2.0:换成 Wan2.1-14B 模型,生成效果更稳
V3.0(2025年7月发):生成质量和动作流畅度更好,量化版本单卡4090就能推理
AniSora核心功能特征
多风格视频生成:能做番剧、国创动画、漫画改编、VTuber内容、动画PV、鬼畜(MAD)等90%以上的动漫视频场景
图像到视频生成(I2V):给一张图就能生成连贯动画,角色细节和风格不变
帧插值:给关键帧就能自动补中间帧,让过渡更顺,少画很多中间帧
时空掩码控制:能精准控制时间和空间,比如定首帧、尾帧、任意中间帧,还能只动局部区域
多模态引导:能同时用文字、图、遮罩一起输入,做复杂场景
风格转绘:能把一种动漫风格转成另一种
RLHF优化:用强化学习加人类反馈练过,用了3万条人工标的数据,输出更符合人喜欢的样子
硬件适配:原生支持 NVIDIA GPU 和华为昇腾910B NPU,推理快约20%
AniSora应用场景
动漫内容创作:快速做番剧片段、国创动画;把漫画改成视频,自动加唇形同步和动作;做动画预告或短动画
虚拟主播(VTuber):实时生成角色动画和背景,让直播、视频更好看
动画制作辅助:给专业动画师补关键帧、改局部,省得画中间帧,提效率
二次创作与鬼畜:支持粉丝做创作、鬼畜动画,给二次元添活力
游戏与教育:快速做游戏动画素材;做教育类动画
独立创作者支持:降门槛,小团队花少钱也能做高质量动画
AniSora使用方法
方式一:本地部署
1. 环境准备:装 Python 和深度学习框架(比如 PyTorch);硬件要 NVIDIA GPU(推荐RTX 4090以上)或华为昇腾910B NPU
2. 拿模型:克隆 GitHub 仓库(git clone https://github.com/bilibili/Index-anisora);模型权重从 Hugging Face 下(约8GB)
3. 运行生成:准备文字描述或单张图当输入;调参数(视频长度、风格强度、运动幅度、种子值等);跑生成脚本等结果(V3生成4秒视频约2.5分钟)
4. 后期调整:用给的控制功能微调结果
方式二:ComfyUI插件
方式三:在线体验
去官方演示网站:www.anisora.ai
❓ 常见问题
Q1: AniSora 和 Sora、可灵这些通用模型有啥不一样?
A: 通用模型(比如 OpenAI Sora、Kling)擅长自然场景和真人视频,但碰到动漫的夸张表现、不真实的渲染就不行。AniSora 专门给动漫优化,角色一致、动作顺、“二次元味”更足。
Q2: 生成视频的分辨率和时长有限制吗?
A: V3支持最高1080p。时长能调,一般做4-5秒短内容,用时序控制能加长。
Q3: 硬件要求高吗?
A: V3量化版单卡RTX 4090就能推。单台4卡4090生成5秒360p视频要30秒;单台8卡A800只要8秒。比V2少了约15%的伪影。
Q4: 怎么拿训练数据集?
A: 团队开了高质量训练集申请通道,填申请表发指定邮箱(比如 yangsiqian@bilibili.com),能拿V2.0权重和完整数据集权限。
Q5: 支持哪些动漫风格?
A: 支持日本动漫、国产原创动画、漫画改编、VTuber内容、恶搞动画(鬼畜)等,覆盖90%的动漫视频场景。
Q6: 生成效果不稳咋办?
A: 建议:图生视频时用清楚的图;写详细文字提示,说清动作和场景;调种子值让结果一致;用首尾帧引导控制视频走向
资源链接
GitHub仓库:https://github.com/bilibili/Index-anisora
模型下载(HuggingFace):https://huggingface.co/IndexTeam/Index-anisora
技术论文:https://arxiv.org/pdf/2412.10255
官方网站:www.anisora.ai
在线体验:https://anisora.art/zh/index.html
相关资讯:
专业论文写作-降AI率
Ai应用
Ai资讯
漫剧一条龙
爆单神器-绘蛙
字节龙虾ArkClaw
白日梦一站式AI漫剧制作工具






