今天聊的,是一款软件,让你实现一个嘴炮小电影的自我修养。


(资料图片仅供参考)

咱们先上车。

比如,我天马行空一句话:「在赛博朋克城市,一群海豚在空中游来游去」

(注意,需要翻译成英文,毕竟目前是歪果仁先搞出来的玩意)

然后——

擦,就可以无中生有出下面这个视频

这效果这速度。。。 我好了

再试一个。

「迪士尼城堡,公主,野兽」

然后——

擦,好美啊。。。

我又好了

公布答案。

上面我玩的,就是传说中视频版Midjourney——Runway Gen-2。

它是一款AI视频编辑工具,根据文本提示或现有图像生成视频的模型。而Runway,就是Stable Diffusion和《瞬息全宇宙》背后技术公司。

简单来说,就是一句话生成视频。

不过,目前生成的视频只有4秒(毕竟是免费版),想玩的朋友进这个地址:。

虽然只有4秒,但可以拼接啊,那不就是一部小电影嘛。

look~

在推上有个大叔,用Gen1+Gen2,生成了下面这个炸裂的变身视频。

从视频上不难看出,最难处理的手部,依然翻车了。

我试的还有出现三条腿的情况

除了手脚,如果硬要挑Gen2的刺,还有这些——

一个是帧率低,在某些地方卡顿得像幻灯片。

目前还不清楚这是不是技术上的问题,我估计是Runway为了降本增效,试图节省计算成本。

另一个人脸可能会像洋娃娃一样,有光泽、没情感的眼睛和苍白的皮肤,让人想到廉价的塑料

就像超现实主义者创造的东西,人们的胳膊和腿融合在一起,然后又分开,而物体则融化在地板上并消失,影子也被扭曲变形。

so目前来看,Gen2更像是一个新奇的玩具,而不是任何视频工作流程中真正有用的工具。

不是真正有用就没有用了吗?

nonono

也许我们普通用户对Gen2来说,也许根本就不需要真实感,不是吗?

因为它好玩啊!它给我们提供了创意的源泉,你想想,一句话,几个词,就可以得到一个视频模版。

对于效果,以AI的进化速度,Runway的技术接近生成电影质感的视频,也就时间问题罢了。

而我们要担心的是——

自己的词穷和想象力。

推荐内容