OpenAI 的新推出的文本转视频工具——Sora
Sora 是一个 AI 模型,可以从文本指令中创建逼真和富有想象力的场景,可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。
Sora 是一个 AI 模型,可以从文本指令中创建逼真和富有想象力的场景。你可以查看下面的推特来体验体验。
Sora 能干什么?
Sora 可以生成长达一分钟的视频,同时保持视觉质量并遵守用户的提示。
Sora 能够生成具有多个角色、特定类型的运动以及主题和背景的准确细节的复杂场景,该模型不仅了解用户在提示中要求的内容,还了解这些东西在物理世界中的存在方式。
Sora 目前有什么缺点?
它可能难以准确模拟复杂场景的物理特性,并且可能无法理解因果关系的具体实例。例如,一个人可能会咬一口饼干,但之后,饼干可能没有咬痕。
该模型还可能混淆提示的空间细节,例如,左右混淆,并且可能难以精确描述随时间推移发生的事件,例如遵循特定的相机轨迹。
Sora 是否有限制?
有!
使用 OpenAI 产品,它们的文本分类器将检查并拒绝违反它们使用政策的文本输入提示,例如那些请求极端暴力、色情内容、仇恨图像、名人肖像或他人 IP 的提示。
OpenAI 还开发了强大的图像分类器,用于查看生成的每个视频的帧数,以帮助确保在向用户显示视频之前,这些视频符合它们的使用政策。
Sora 的技术架构
Sora 是一种扩散模型,它从看起来像静态噪点的视频开始生成视频,然后通过多个步骤消除噪点来逐渐转换视频。
Sora 能够一次生成整个视频或扩展生成的视频以使其更长。通过让模型一次看到许多帧,解决了一个具有挑战性的问题,即确保一个主题即使暂时离开视野也能保持不变。
与 GPT 模型类似,Sora 使用 transformer 架构,释放出卓越的扩展性能。
OpenAI 官方将视频和图像表示为称为补丁的较小数据单元的集合,每个补丁都类似于 GPT 中的一个令牌。
Sora 建立在 DALL·E 和 GPT 模型的基础之上,它使用了 DALL·E 3,涉及为视觉训练数据生成高度描述性的标题。
因此,该模型能够更忠实地遵循生成视频中用户的文本说明。
除了能够仅根据文本说明生成视频外,该模型还能够获取现有的静态图像并从中生成视频,从而准确无误地对图像内容进行动画处理,并注重小细节。
该模型还可以拍摄现有视频并对其进行扩展或填充缺失的帧。
知识扩展: