OpenAI 发布了一款名为「Sora」的视频生成模型,并指这模型能够根据文字指令创造出既真实又充满想象力的场景。 这款文字到影片的模型让用户能够创造出长达一分钟的真实视频。
从复杂场景到生动角色
根据 OpenAI 在博客中的说明,Sora 能够创建包含多个角色、特定类型的动作以及对象和背景的准确细节的复杂场景。 它能够理解物体在物理世界中的存在方式,准确解读道具,并生成能够表达丰富情感的引人入胜的角色。
静态图片变成影片
此外,Sora 也能够基于静态图片生成影片,填补现有视频的遗失帧,或者将其延长。 OpenAI 展示以 Sora 生成的影片,包括加州淘金热期间的空中场景、看似从东京列车内部拍摄的影片等。
尽管许多视频存在 AI 生成的一些明显「痕迹」,例如博物馆影片中地板会「移动」。 OpenAI 承认该模型在一些复杂场景会遇到困难,但整体成果仍然相当令人印象深刻。
Introducing Sora, our text-to-video model.
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
— OpenAI (@OpenAI) February 15, 2024
仍在评估
目前,Sora 仅对正在评估潜在危害和风险的「红队成员」开放。 OpenAI也向一些视觉艺术家、设计师和电影制作人提供访问权,以获取反馈。
© 版权声明
文章版权归作者所有,未经允许请勿转载。