4月1日,阿里巴巴发布图像生成与编辑统一模型Wan2.7-Image。直击当前 AI 生图领域“标准脸”审美疲劳和“色彩盲盒”等痛点,该模型可实现“千人千面”,捏出“活人感”,全新的“调色盘”功能可精准控制色彩。

Wan2.7-Image具备文生图、图生组图、图像指令编辑和交互式编辑等全链路能力。在人类偏好盲测中,“文生图”能力超过GPT-Image1.5和国内主流模型,在文本渲染、照片级成像和世界知识指标上,接近Nano Banana Pro。


图说:Wan2.7-Image的人类偏好盲测评分位列国内第一。

为告别千篇一律的“AI脸”,Wan2.7-Image强化了虚拟形象捏脸功能,支持从骨相、眼眸到五官细微处的全方位定制,比如更换提示词中的脸型(鹅蛋脸、圆脸、方脸、长方脸等)、眼部特征(杏仁眼、深邃眼窝、圆眼、丹凤眼等),实现“千人千面”。


艺术家和设计师需精准控制颜色,商业海报对配色还有严格要求,但AI生图往往是“色彩盲盒”。Wan2.7-Image全新支持“调色盘”功能,用户可通过HexCode,一键提取或输入参考图的各种颜色和占比,从马蒂斯浓郁的红色系、梵高明媚的黄色系,到毕加索清冷的蓝色系,都能参考生成同色系的图片,并可自由调控颜色的数量和占比,自定义配色方案。


超长文字渲染是AI生图的痛点,容易文字模糊、内容错乱甚至直接漏写。凭借长上下文文本编码(Long Context Text Encoder)解析超长序列,Wan2.7-Image对超长文字、表格和复杂公式的渲染可达印刷级,支持12种语言,最高3K tokens的超长文字输入,可输出一页A4纸的论文。


此外,Wan2.7-Image还具备强大的组图生成能力,可生成多达12张,用于批量制作同风格系列图、PPT配图、分镜脚本、电商模特套图及多视角建筑图。

如果说生图能力是创作的基石,那么编辑功能则赋予了创作者掌控力。Wan2.7-Image原生支持交互式编辑模块,更懂创作者的需求——“哪里不爽点哪里”,用户可通过精准框,在指定区域元素添加、对齐、移动元素或logo,实现像素级意图对齐。


Wan2.7-Image的多主体一致性最高支持输入9张图片作为参考源。对于合影、电影海报及家具组合图等,可保持风格与特征的统一。其他常用的图像编辑能力,如镜头视角控制、光影处理、材质参考、照片修复、虚拟试衣等数十种实用功能,Wan2.7-Image也能更稳定地输出,告别“抽卡”式创作。


不只会生图,还更懂图,Wan2.7-Image更强的理解能力源于模型架构与训练过程中的技术突破。

在训练数据上,超大规模的异构数据底座不仅涵盖全域品类的视觉素材,还整合了理解类数据;在模型架构上,模型采用了领先的生成与理解统一模型架构,共享隐空间(Latent Space)来实现语义映射,文字紧挨着画面,模型不需费力去猜文字对应的画面;在训练流程中引入多模态指令(比如文字+图片),使得模型实现了从单纯“像素拟合”到“底层语义认知”的飞跃。

此外,在数据工程维度,根据图像的布局、文字、光影、拍摄角度和用途等,模型团队构建了多维精细标注体系。配合先进的分阶段训练策略与多任务优化,模型在长尾场景下仍然保持了极高的生成稳健度。基于更大规模数据及尺寸训练而成的Wan2.7-Image-Pro也同步上线,生成图像的构图更加稳定,语义理解更强更精准。

Wan2.7-Image的强大功能可应用于多个行业。对于短剧与影视团队,借助千人千面的捏脸系统与分镜生成能力,可低成本完成角色设定、动作模仿与特效预览;对于自媒体与内容创作者,可轻松生成多风格封面、OOTD穿搭;在电商领域,只需单张模特图,即可裂变生成特写图、不同场景的卖点图,大幅降低拍摄成本;教育和科研从业者可直接调用模型生成论文配图、信息图表与儿童绘本。对于时下大火的“龙虾热”,Wan2.7-Image 现已支持skill调用,让龙虾画画,全面解锁生成模型的应用场景。

即日起,用户可在https://tongyi.aliyun.com/wan/、wan.video网站和阿里云百炼体验Wan2.7-Image,千问App也即将接入。

雷峰网