影视飓风视频被字节新AI训练 Tim直言: 能力太恐怖了
影视飓风Tim实测字节Seedance2.0 AI视频模型,能力太恐怖!仅凭一张照片,AI竟能生成其声音与楼栋背面画面,直言团队视频数据疑被用于训练。
今日,影视飓风Tim发布最新视频,聚焦字节跳动刚推出的AI视频模型Seedance2.0。
视频中,Tim对该模型给予高度评价,称赞其生成视频的精细度、摄像机运动流畅度、分镜连续性及音画匹配度表现出色,直言其是“改变视频行业的AI”。
然而,常规的功能体验中,一个意外发现让Tim直呼“恐怖”。他透露,体验时未上传任何声音文件、相关提示,仅上传自己的人脸照片,系统便自动生成了与他本人高度相似的声音,且能精准匹配其语气特质。
更让他震惊的是,上传仅含楼栋正面的照片后,模型生成的运镜竟能转到楼栋背面,“它知道我背后的东西是什么,即便我没有告诉它”。
Tim据此判断,影视飓风团队过往发布的大量视频,已被字节跳动用于Seedance2.0的学习训练。
Tim坦言,不确定平台用户协议中是否隐藏相关数据授权条款,他及团队从未收到授权通知、未获得任何报酬,推测此事从法理层面可能合规。
此外,他们测试其他博主(比如何同学)的素材后发现,模型对人物形象的还原度极高。他感慨,影视飓风是最早大量上传高清图像、声音等内容至云端的团队之一。
Tim提醒称,若一个人的全部数据进入AI数据集,AI能100%模拟其形态与声音,其家人很难分辨内容真假,这一现象值得所有人警醒。
据官方资料,Seedance2.0由字节跳动研发,可通过文本或图像创建电影级视频,采用双分支扩散变换器架构,能同时生成视频与音频。
用户只需上传一张图片或编写详细提示,该模型即可在60秒内生成带原生音频的多镜头序列视频。
其独有的多镜头叙事功能,可根据单个提示自动生成多个关联场景,AI会自动保持角色、视觉风格及氛围的一致性,无需手动编辑。
官方声称,该功能非常适合创建从开头到高潮的完整叙事序列,能确保专业级的连贯性。

