阿里最新开源的视频生成模型阿里万相Wan2.1火遍全网,不仅迅速在全球权威垂直类榜单VBench上登顶,完胜Sora,更在整个AI界,乃至内容创意领域一石激起千层浪,开启了视频生成的无限可能。
今天就让我们来看看万相2.1到底支持哪些炫酷好玩的功能吧~
万相2.1叠了哪些好玩的buff?
- 懂中文:首次实现基于中文提示词的视频生成,再阳春白雪的表达都能听懂。
- 会写字:首创了中文艺术字与多种特效,告别书写“鬼画符”的文盲AI。
- 有审美:懂得电影质感的运镜,还能实现水墨晕染等东方美学表达,0预算拍大片也不是不可能。
- 能跑会跳:在大幅度复杂运动、物理规律遵循方面十拿九稳,消除了AIGC人物动作的塑料感。

哪里能玩万相2.1?
万相2.1现已上线东方超算AI应用商店(访问网址appmall.ai),使用价格低至2.3元/小时,平台按分钟数实际计费,比如使用10分钟,那么只会收费约0.4元。
您可以查看《手把手教你玩转AppMall》,了解安装开启站内应用全流程。

在线安装后如何上手?
(1)用户界面什么样?
万相2.1的用户界面非常简单,一共分为3个区域:(左上)提示词输入,(左下)优化参数,以及(右侧)结果生成。

比较值得展开讲讲的是(左下)优化参数区域,目前有4个可调节参数,分别是:
- Diffusion steps(扩散步数):表示模型从纯噪声逐步生成视频帧的迭代次数,数值50意味着生成过程要经历50 次处理,数值越大,视频画面越精细,但耗时也更长。
- Guide scale(引导尺度):用来控制文本提示对生成视频的影响程度,6表明在生成时会较严格遵循文本描述,数值越高,生成内容和提示相关性越强,可能也会更缺乏多样性。
- Shift scale(移位尺度):该参数影响视频帧之间的变化和连贯性,数值8代表一种特定的变化幅度调节,数值越大,视频帧间变化可能越明显。
- Seed(随机种子):-1代表未指定固定随机种子,每次生成会是不同结果。若指定具体数值,在相同参数下可复现相同视频生成效果,便于调试和获得一致内容。
(2)提示词如何写?
文生视频,“文”是一切的前提。提示词越详细,生成视频效果会越好,但也不宜过长,否则会影响万相2.1大模型的理解,生成过程的时长也会被无限拉长(实测一般长度提示词至少需要300s以上的生成时长)。
一般来说,提示词应该至少包括画面主体(比如,人、地、物、事、情),背景信息(环境、色调、动作、颜色、场景)等。
如果说自己大致知道想要什么感觉的画面,但对细节难以校准的话,可以利用豆包、通义千问等,先请AI帮忙撰写一段提示词,再复制到万相2.1里。

万相2.1最适合用在哪些场景?
(1)中文艺术字生成。
(2)中文复杂语意/电影感场景生成。
利用前面这段由豆包AI撰写的复杂语意提示词,可以看到万相2.1的对中文的理解,以及最终视频的生成效果,都超出预期。
(3)精细动作生成。
(4)电影感运镜场景生成。
快来appmall.ai,探索更多AI应用的可能吧~
At this time I am going away to do my breakfast,
once having my breakfast coming over again to read additional news.