冯骥都说好!字节跳动发布即梦Seedance2.0 AIGC大模型
字节跳动发布Seedance 2.0 AIGC大模型,冯骥强烈推荐!支持多模态输入,生成质量大幅提升,可用率SOTA,降低视频创作成本。立即体验!
IT之家2月12日消息,据字节跳动Seed 官方微信公众号消息,今天,新一代视频创作模型 Seedance 2.0 正式发布。就连《黑神话悟空》的制作人冯骥都表示强烈推荐。

Seedance 2.0 采用统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态输入,集成了目前业界最全面的多模态内容参考和编辑能力。相比 1.5 版本,Seedance 2.0 的生成质量大幅提升,其在复杂交互和运动场景下的可用率更高,物理准确度、逼真度、可控性显著增强,更加贴合工业级创作场景的需求。
其核心亮点如下:
复杂场景下更高可用率:凭借出色的运动稳定性和物理还原能力,模型在多主体交互和复杂运动场景中表现出色,生成可用率达到业界 SOTA 水平。
多模态能力显著强化:基于统一的多模态音视频联合架构训练,支持混合模态输入,允许用户同时输入多达 9 张图片、3 段视频、3 段音频以及自然语言指令,模型可参考输入素材中的构图、动作、运镜、特效、声音等元素,打破传统视频生成的素材边界。
视频生成可控性大幅提升:模型的指令遵循与一致性表现全面提升,并支持稳定可控的视频延长、视频编辑,让普通用户也能像导演一样,轻松掌控视频创作全流程。
深度支持工业级内容创作:模型支持 15 秒高质量多镜头音视频输出,具备双声道音频能力,可实现极致拟真的视听效果,配合参考和编辑能力,能大幅降低影视、广告、电商、游戏等场景的内容制作成本。
字节跳动称,依靠海量世界知识、稀疏架构的效能优势,以及多模态联合训练涌现的强大泛化能力,Seedance 2.0 解决了物理规律遵循及长效一致性的难题,同时也赋予创作者前所未有的自由度,让音视频生成的质量和可控性达到专业生产场景要求。
不过字节跳动也指出,Seedance 2.0 还远不完美,其生成结果仍存在诸多瑕疵。未来,我们将持续探索大模型与人类反馈的深度对齐,让更高效、更稳定、更具想象力的音视频生产工具,服务更多创作者。

目前,Seedance 2.0 已上线即梦 AI、豆包等平台。
项目主页:
https://seed.bytedance.com/seedance2_0
体验入口:
1)即梦网页端-视频生成-选择 Seedance 2.0;
2)豆包 App 对话框-Seedance2.0-选择 2.0 模型;
3)火山方舟体验中心-选择 Doubao-Seedance-2.0。

