【小哈划重点:令人惊叹的是,这组图片展示了人们在下雪天漫步、玩雪的多个角度,并且均由Sora一次完成。】
2月18日消息,OpenAI近日发布了Sora模型,可以根据用户输入的文本描述,生成一段视频内容,一经公布便引发网友热议。然而,Sora的能力还不止于此。
当地时间周六OpenAI研究科学家比尔・皮布尔斯 (Bill Peebles) 在X上晒图,并表示“这是Sora一次性生成的视频样本,并不是我们把5个视频拼接在一起。Sora决定同时拥有五个不同的视角!”
令人惊叹的是,这组图片展示了人们在下雪天漫步、玩雪的多个角度,并且均由Sora一次完成。这意味着该模型支持一次性生成多机位视频,短视频、电影行业或许会受到不小冲击。
传统视频拍摄通常需要人工撰写脚本再使用摄像机拍摄,通过多视角的剪辑,最终呈现出完整的视频片段。然而,未来也许只需要输入脚本信息,便可生成多角度多机位视频,再加上人工的剪辑,便可呈现一部完整的作品。
据IT之家此前报道,Sora会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。对于任何需要制作视频的艺术家、电影制片人或学生来说,这都带来了无限可能。
Sora可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。例如,Sora可以制作时尚女性走在霓虹闪烁的东京街头的视频、雪地里的巨型长毛象视频,甚至是太空人冒险的电影预告片。
目前,OpenAI尚未向公众开放Sora。OpenAI称,该模型正在接受测试,只分享给了一批精选的研究人员和学者。