【小哈划重点:该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。】
2月16日消息,OpenAI近日发布了Sora模型,可以根据用户输入的文本描述,生成一段视频内容。
该模型可以深度模拟真实物理世界,标志着人工智能在理解真实世界场景并与之互动的能力方面实现了重大飞跃。
Sora会严格根据用户输入的提示词,可以制作长达一分钟的视频,保持较高的视觉质量。对于任何需要制作视频的艺术家、电影制片人或学生来说,这都带来了无限可能。
OpenAI表示目前已交由Team Red(网络安全演习中扮演敌人或竞争对手角色的群体)测试Sora,评估潜在的危害或风险。
此外OpenAI还邀请了一支专业的创意人士测试,用于反馈其在专业环境中的实用性。OpenAI计划根据这些反馈意见改进Sora,确保它能有效满足用户的需求。演示视频非常超现实。
Sora可以创建包含多人、特定运动类型和详细背景的复杂场景。它能生成准确反映用户提示的视频。例如,Sora可以制作时尚女性走在霓虹闪烁的东京街头的视频、雪地里的巨型长毛象视频,甚至是太空人冒险的电影预告片。
不过,Sora也有局限性,包括在模拟复杂场景的物理特性和理解特定因果场景方面存在挑战。OpenAI表示,Sora还可能会混淆空间细节,并在精确描述时间事件方面遇到困难。