阿里发布Wan2.7-Video视频生成模型!从演迈向导 聚焦创作全链路
4月3日消息,阿里巴巴今日正式发布Wan2.7-Video视频生成系列模型,涵盖文生视频、图生视频、参考生视频和视频编辑四大模型。
新模型拥有全面的创作控制力,将AI的能力从单一素材生成扩至创作全链路,从演迈向导。
据介绍,当前AI生视频距离影视级创作工具仍有距离,而由四个专业模型组成的万相2.7试图补齐这些能力。
全新发布的文生视频(Wan2.7-t2v)、图生视频(Wan2.7-i2v)、参考生视频(Wan2.7-r2v)和视频编辑(Wan2.7-videoedit)分别对应从零创作、画面控制、演绎复刻到精细编辑的完整工作流。
其可实现文本、图像、视频、音频全模态输入的统一创作体系,全系列支持720P和1080P分辨率输出,视频时长可在2至15秒范围内任意指定。
Wan2.7-Video拥有强大的视频编辑能力,一句话即可对视频进行局部或整体修改。
例如添加、删除和替换元素、切换场景环境(如将晴天改为雨天、夏季改为冬季),以及变换整体视觉风格(如写实转水彩、真人转黏土动画)。
它还融合了编辑和生成能力,角色的行为、表情和情绪均可调整,角色台词可替换并自动匹配口型与音色;同时拍摄方式也可重新定义,包括机位、视角、景别和焦距等参数。
在参考生视频上,模型还支持动作、运镜和特效的快速复刻。
用户可输入图像、视频和音频多模态,参考锁定角色的外观和音色、精准迁移人物动作,即便是大幅度的复杂动作也能稳定还原。最多支持5个视频主体参考,为业内最多。
值的注意的是,Wan2.7-Video只需一段简短的文字描述,即可实现智能剧本创作和分镜调度,编排剧情节奏、设计镜头语言并安排场景转换。
在运镜方面,Wan2.7-Video支持数十种基础运镜和复杂的组合运镜方案,并能与剧情内容紧密配合,强化叙事张力。
此外,Wan2.7-Video在视觉风格和声音控制上也有所突破,可延展出上千种风格组合,覆盖2D卡通、3D动画、水墨、黏土、赛璐璐等多种视觉语言。
即日起,用户可在https://tongyi.aliyun.com/wan/、wan.video网站和阿里云百炼体验Wan2.7,千问App也即将接入。
