2025年12月16日,阿里云正式发布了通义万相2.6(Wanx 2.6)系列模型,这一里程碑式的发布标志着AI视频生成技术迈入了一个全新的阶段。通义万相2.6不仅解决了AI视频生成中长期存在的“角色乱变”和“镜头不连贯”等核心痛点,更以一系列创新功能重新定义了视频创作的边界,为专业影视制作、广告营销、内容创作等多个领域带来了前所未有的变革。
角色扮演:打破次元壁,实现精准控制
通义万相2.6系列模型的最大亮点之一在于其国内首个“角色扮演”功能的实现。这一功能允许用户上传任意人物或物体的视频作为参考,模型能够精准提取并锁死角色的外貌、表情、动作乃至音色等特征,生成单人、多人甚至人与物互动的新视频。无论是让历史人物重现经典场景,还是让虚拟IP跨越次元壁与现实互动,通义万相2.6都能轻松实现,且画面与声音高度一致,极大地拓宽了视频创作的想象空间。
智能分镜:多镜头叙事,打造电影级质感
除了角色扮演功能外,通义万相2.6还引入了智能分镜叙事机制,支持多镜头生成。用户只需输入简单的提示词,模型便能自动生成包含开场、主体、收尾的完整叙事逻辑短片,并在不同镜头间精准保持主体、场景、光影的一致性。这一功能不仅解决了AI视频“镜头单一”的问题,更让非专业用户也能轻松创作出具有电影级质感的视频内容。
音画同步:唇形对齐,时长升级
通义万相2.6在音画同步方面也取得了显著突破。模型支持精准的唇形同步(Lip-Sync),确保说话口型与声音完美匹配,避免了传统AI视频中常见的口型不对齐尴尬。同时,模型还支持最高15秒的高清视频生成(1080p),这一时长升级使得用户能够创作出更完整、更具叙事性的视频内容,满足广告片、短视频等多种场景的需求。
技术突破:从“随机生成”到“精确执导”
通义万相2.6的发布,真正实现了AI视频生成从“随机性”到“精准控制且可商用”的跨越。模型不仅支持多图创意融合,突破了单图参考的局限,更在图文排版和商用一致性上表现出色,能够精准控制画面风格、角色与光影。此外,用户还可以调整焦距、光圈等专业摄影参数,直接输出具有电影质感的光影效果,为专业创作者提供了前所未有的控制精度。
生态融合:推动AI视频规模化商用
通义万相2.6的发布不仅带来了技术上的突破,更在生态层面实现了深度融合。作为全球知名的AIGC图形音视频工作流开发和API服务平台,RunningHub在模型发布当天即完成了技术接入,使得Wanx 2.6的最新能力能够通过RunningHub成熟的云端基础设施迅速融入开发者与企业的业务流程中。同时,联想百应智能体也宣布率先深度接入通义万相2.6,成为国内首个落地原生视频生成能力的L3级企业AI服务智能体,进一步推动了AI视频技术的规模化商用。
市场反响:引领AI视频创作新潮流
通义万相2.6的发布迅速引发了市场的热烈反响。无论是专业影视制作公司、广告代理商还是内容创作者,都对这一革命性的视频生成模型表示了高度关注和期待。许多用户已经迫不及待地开始尝试使用通义万相2.6创作各种创意视频,从科幻短片到历史重现,从虚拟偶像互动到产品宣传片,通义万相2.6正以其强大的功能和易用性引领着AI视频创作的新潮流。



经营性网站备案信息
ICP经营许可证
营业执照副本
不良信息举报中心