上传一张图就可主演任何视频 阿里生成AI开源!

2025-09-20 09:21:06 神评论
17173 新闻导语

阿里开源Wan2.2-Animate AI模型:仅需上传图片,即可主演任何视频!支持角色模仿与扮演,提升短视频、动漫创作质量,超越主流开源模型性能。

据IT之家9月19日消息,阿里通义万相全新动作生成模型Wan2.2-Animate今日正式开源。该模型支持驱动人物、动漫形象和动物照片,可应用于短视频创作、舞蹈模板生成、动漫制作等领域。

Wan2.2-Animate模型基于此前通义万相开源的Animate Anyone模型全面升级,不仅在人物一致性、生成质量等指标上大幅提升,还同时支持动作模仿和角色扮演两种模式:

角色模仿:输入一张角色图片和一段参考视频,可将视频角色的动作、表情迁移到图片角色中,赋予图片角色动态表现力;

角色扮演:同时还可在保留原始视频的动作、表情及环境的基础上,将视频中的角色替换为图片中的角色。

此次,通义万相团队构建了一个涵盖说话、面部表情和身体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行后训练。

Wan2.2-Animate将角色信息、环境信息和动作等,规范到一种统一的表示格式,实现了单一模型同时兼容两种推理模式;针对身体运动和脸部表情,分别使用骨骼信号和隐式特征,配合动作重定向模块,实现动作和表情的精准复刻。在替换模式中,团队还设计了一个独立的光照融合LoRA,用于保证完美的光照融合效果。

实测结果显示,Wan2.2-Animate在视频生成质量、主体一致性和感知损失等关键指标上,超越了StableAnimator、LivePortrait 等开源模型,是目前性能最强的动作生成模型,在人类主观评测中,Wan2.2-Animate甚至超越了以Runway Act-two代表的闭源模型。

【来源:互联网】
关于阿里通义万相,Wan2.2-Animate,动作生成模型,AI开源,角色模仿,角色扮演,短视频创作,动漫制作,图生视频,动作重定向的新闻

你不知道点进去会是什么