导航菜单

OpenAI刷屏的视频模型是如何做到这么强的 前景如何

导读 2月16日OpenAI在官网发布了一则新的消息,新的文生视频大模型Sora已经研发成功,利用这种模型可以快速生成最长60秒的高清视频,并且生成的60...

2月16日OpenAI在官网发布了一则新的消息,新的文生视频大模型Sora已经研发成功,利用这种模型可以快速生成最长60秒的高清视频,并且生成的60秒视频可以非常好地展现,视频中各个场景的光影关系,以及不同物体之间的碰撞关系、物理遮挡,每一个镜头都非常的丝滑完美。

该公司在官方网站中也上传了很多个官方演示视频,由于生成内容涉及到的安全问题,目前该模型还没有正式开放测试,因此并没有办法获得更多的信息。但根据OpenAI公司所给出的示例视频可以看出,提示词是:街道上到处都是温暖的发光霓虹灯以及动画城市标志,一个穿着黑色皮夹克、黑色靴子,红色长裙,时尚的女士走在东京的街道上,戴着墨镜、涂着大红色的口红,背着一个黑色的钱包,随意的在大街上走动。根据这些关键词Sora呈现出了一个非常完美的视频。

很多人都在好奇OpenAI公司所研发的Sora视频模型为何这么强大,首先在目前的文生视频领域中,已经有了一些比较成熟的模型思路,有生成对抗网络、循环网络、扩散模型。

而该公司所推出的Sora模型,采用的就是扩散模型,虽然生成对抗网络模型在此之前比较受欢迎,但对着文生视频领域技术不断成熟,扩散模型已经属于业内头部技术。

因为扩散模型相较于生成对抗网络,生成视频的多样性,以及在训练时的稳定性能都会更占据优势,更重要的一点是扩散模型,不管是在图片生成中还是在视频生成中,都能达到更高级的领域。而生成对抗网络从现有的原理看,其实就是机器人对于人的模仿,而扩散模型现在到达的高度,已经达到了一个机器学会如何成为一个人。

Sora模型的发展前景被业内人士看好。认为会给视频广告领域带来更多新的创意。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: