阿里通义实验室近日正式推出视频创作大模型Wan2.7-Video,该模型突破传统视频生成工具的局限,支持文本、图像、视频、音频全模态输入,实现画面结构、剧情走向、局部细节、时序变化等多维度精准编辑。用户通过自然语言指令即可完成从智能剧本创作到专业分镜调度的全流程操作,甚至能指定电影类型自动匹配色彩风格与光影效果。
在核心功能层面,该模型创新性地引入视频续写与尾帧控制联合机制。用户既可延续现有视频内容,又能直接指定结尾画面,有效解决传统续写中常见的画面割裂问题。实测显示,当要求将欧美男生替换为中国男生时,模型不仅精准保留背景细节与人物姿态,更实现嘴型同步与音色统一,仅对服装光影进行自然调整。对于多主体场景,模型支持同时参考最多5个视频素材,确保角色行为与场景元素的高度协调。
针对专业创作需求,Wan2.7-Video提供精细化控制选项。用户可通过指令修改拍摄参数,包括机位、视角、景别等十余种运镜方式,甚至能实现希区柯克式变焦等复合技巧。在角色塑造方面,模型支持修改台词内容、情绪表达及行为动作,同时保持口型匹配与音色连贯。当需要将夏日场景转换为深秋时,模型可自动调整植被色彩与光影氛围,生成符合逻辑的季节变迁效果。
技术突破方面,该模型通过解构动画艺术风格,将整体造型、线条轮廓、光影材质等要素拆分为独立维度。这种模块化设计使用户能自由组合视觉元素,创造独特风格的同时确保多镜头一致性。在情绪表达层面,模型经过专业剧本训练,可演绎超过40种细分表情,从微妙眼神到复杂肢体语言均能精准呈现。
多模态协同是该模型的另一亮点。通义实验室语音团队通过音频预训练技术,显著提升声音真实度与音画同步质量,使角色对话更具感染力。虎鲸文娱摩酷实验室则提供影视领域专业知识,优化角色表演逻辑与场景调度合理性。这种跨领域合作印证了当代视频生成已进入音画协同、叙事逻辑与美学表达的综合竞争阶段。
目前,Wan2.7-Video已开放阿里云百炼平台与万相官网体验入口。用户可通过自然语言指令实现"一句话改视频",模型自动处理光影材质一致性等复杂问题。从局部元素增删到整体风格转换,从智能运镜到专业分镜,该模型正在重新定义视频创作的效率标准与技术边界。





















