“视频领域的Midjourney”,AI视频生成新秀Gen-2内测作品流

号称可以一句话拍大片的 AI 视频生成工具 Gen-2,开始露出庐山真面目。

有推特博主已经率先拿到了内测资格。

这是他用提示词“一个身材匀称 or 对称的男人在酒吧接受采访”生成的结果:

只见一个身着深色衬衣的男人正望着对方侃侃而谈,眼神和表情透露着一股认真和坦率,对面的人则时不时点头以示附和。

视频整体非常连贯且画质很是清晰,乍一看,真实访谈感满满有没有!

同样的提示词生成的另一个版本也不赖:

这次镜头更加拉近,背景更逼真,人物则仍然富有表现力。

有网友看完这组作品直呼:

太不可思议了吧,只靠文字提示就能生成这样的结果!

还有人直言:

这是视频领域的 Midjourney 来了。

博主实测 Gen-2

这位博主名叫 Nick St. Pierre,专门在推上分享他用 AI 制作的作品。

除了开头所见的写实风,他还发布了一组 Gen-2 的科幻作品。

比如“宇航员穿越太空”:

“一名武装士兵沿着宇宙飞船的走廊奔跑,身后一道黑影摧毁了墙壁”:

“一家在人类动物园吃微芯片的机器人”:

“人形机器人大军在冰冻的平地上进行殖民”:

“地球上最后一个人看着入侵的宇宙飞船降落在东京上空”:

……

虽然说这组科幻的效果相比“酒吧男人接受采访”稍显逊色,但神奇的是,它和 AI 图像生成模型诞生之初的那种“混沌不清”的味道可以说不相上下 —— 仿佛看到了 Stable diffusion 等 AI 当时的影子。

如 Nick St. Pierre 表示:

Gen-2 还处于婴儿期,后面一定会更好。

我们也在网上找到了其他已经拿到内测资格的人测试的一些效果:

可以说,除了比较难的科幻作品,其它它拿捏的都还不错的亚子。

AI 视频生成也狂飙

专攻视频生成的 AI 工具 Gen-2 于 3 月 20 日发布。

作为 AIGC 领域的新秀,它的迭代速度和质量也是相当快了:

Gen-1 版本 2 月才刚诞生,那会还只能对已有视频进行编辑;

现在 Gen-2 就已经可以用文字和图像作为提示词直接生成视频了。

官方号称它为“生成式 AI 的下一步”,宣传语给的也是很霸气:

say it,see it。

Gen-2 的更新一口气带来了八大功能:

它的出现和 AI 绘画一样,让人看到了影视、游戏和营销等领域暗藏的巨大变革。

其背后开发公司也值得说道,它就是 Runway。

Runway 成立于 2018 年,为《瞬息全宇宙》特效提供过技术支持,也参与了 Stable Diffusion 的开发。

提示:Gen-1 已经可以开始玩了 ,Gen-2 还没有正式对公开放。

除了 Gen 系列,微软亚研院还最新发布了一个可以根据文字生成超长视频的 AI:NUWA-XL。

只用 16 句简单描述,它就能 get 一段长达 11 分钟的动画:

在往前一点儿,就在 Gen-2 发布同一天,阿里达摩院也开源了 17 亿参数的文本转视频 AI:

效果是酱婶的:

……

可以预见,不止图像生成,视频领域也要变得热闹起来了。

咳咳,所以下一波大众 AI 狂欢,会是它吗?

参考链接:

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。