文章首发 智能涌现公众号
文 | 田哲
编辑 | 苏建勋
12 月 10 日凌晨,OpenAI 正式发布视频模型 Sora 的高端加速版本—— Sora Turbo,相比初代 Sora,Sora Turbo 生成视频速度更快。
据悉,OpenAI 推出的初代 Sora 平均 10 秒生成一秒的视频,而在直播演示中,Sora Turbo 同时生成四条 10 秒时长的视频,总耗时仅 72 秒。
与此同时,Sora Turbo 能以更低廉的成本,实现文本 / 图像 / 视频生成视频。
即日起,Sora Turbo 已向订阅 OpenAI Plus 和 Pro 的会员开放全部功能,无需额外付费,但不同会员类型的使用额度有所差异:
每月付费 20 美元的 OpenAI Plus 会员,单月共有 50 次视频生成额度;每月付费 200 美元的 Pro 会员,单月可慢速无限次生成视频,加速生成视频 500 次,如果生成高分辨率的视频,可用次数将更少。
生成视频方面也有所差异。Plus 会员生成的视频分辨率最高为 720p,单条视频时长为 5 秒;Pro 会员可同时生成 5 条视频,分辨率达到 1080p,时长则提升到 20 秒。
OpenAI 官网显示,Sora 已支持全球 155 个国家及地区使用,不包括中国大陆和欧洲大部分地区。
随着 Sora 开放使用,网友疯狂涌入导致服务器被挤爆。对此,OpenAI 创始人兼 CEO Sam Altman 发文表示,用户注册已被关闭,并且视频生成速度将在一段时间内变慢。
来源:X
一场在线视频工具教程
OpenAI 团队将 Sora 定义为一款创意工具,允许用户通过一段文字描述、一张图片或者一段视频,生成期望的视频。
他们提到,Sora 无法实现一键生成一段故事片,而是需要不断优化。为了直观介绍 Sora,OpenAI 将 Sora 发布会直播,俨然变成了在线视频工具教程。
如果用户需要生成一段视频,需要打开分镜(Storyboard),分镜展示四个视频,以不同视角展示视频细节。
分镜展示画面的不同角度
在分镜中,用户在描述框输入期望的视频指令,设置风格、画面比例、时长、分镜个数、分辨率后,就能生成视频。
目前,Sora 可支持生成最长 20 秒,分辨率为 1080p 的视频,画面比例可选 16:9 / 1:1 / 9:16 三种。
OpenAI 介绍,如果用户的视频指令字数越少,Sora 就会在细节上更多填充;字数越多,就更遵从用户的指令。
直播中,OpenAI 在描述框中输入 ” 一只黄尾白鹤站在小溪里 ” 的指令,将这条视频片段放入时间轴前部分,接着在新视频输入 ” 这只鹤将头探入水中并叼出一条鱼 ” 指令,将其放在同一个时间轴的后部分。两段视频并不连续,因此需要 Sora 自行生成过渡视频,将两个视频合成为一段完整视频。
结果显示,Sora 按照指令生成了清晰的视频,并在两个视频片段生成平滑的过渡片段,让视频连贯且具有故事感。不过,视频中没有生成明显的鱼,却有鹤叼起鱼时溅起的水花。
两个视频合成为一条视频
此外,用户也可直接上传一张图片或者视频,Sora 可以根据内容,生成后续视频的文字描述,用户可随意更改后续视频的指令。
比如,提交一张灯塔的图片后,Sora 会在之后创建一张卡片描述后续将生成的视频,用户可以更改指令,并在时间轴调整位置决定生成的视频何时播放。
上传灯塔图片,Sora 自动描述后续视频
初始视频生成后,用户如果需要优化,可通过 remix 工具改变物体,比如将猛犸象替换为机器人、更改人物表情等。为此,Sora 还设置了细微、轻微、强力三种强度,以满足用户不同的更改需求。
将猛犸象替换为机械化猛犸象
如果用户对生成视频的部分片段满意,可使用 recut 工具剪辑需保留的片段,再通过指令扩充视频,从而获得一段新视频。
此外,Sora 还具备 loop 和高级功能 blend,前者允许用户让视频无限循环,Sora 可生成细节让视频首尾衔接;后者可将两个完全不同的场景融为一体。
不只是工具,而是实现 AGI 的路径
今年 2 月,OpenAI 首次推出初代 Sora,可根据用户输入的提示词生成最长一分钟的高清视频。此后,Sora 开始长达 10 个月的封闭测试,仅向视觉艺术家、设计师和电影制作人等特定外部人员开放。
直到此次直播开始前数小时,有关 Sora 的官方最新视频展示才在网络流出。
而在 Sora 封闭内测的时期内,中国的类似产品如可灵 AI、即梦 AI、海螺 AI 已在海外获得一批用户的认可。
据国外网站分析工具 Similarweb 显示,11 月可灵 AI 的全球总访问量达到 940 万次,超越海外同类产品 runway 的 710 万次;在提前流出的 Sora Turbo 演示视频推文下,不少国外用户表示,其视频效果与中国同类产品相似。
Sam Altman 曾表示,Sora 的更新速度不及预期,原因在于完善模型需要确保安全性,以及扩大计算规模。
据悉,为了保证模型训练得以进行,OpenAI 已与半导体公司 Broadcom 合作研发运行模型的人工智能芯片,最早或将于 2026 年推出。
Sora 对于 OpenAI 的意义,远不止一款视频生成工具。此次直播中,Sam Altman 强调,希望 AI 能够理解并生成视频,以改变人们使用电脑的方式,同时将有助于 OpenAI 实现通用人工智能(AGI)。
不过人们对这一说法看法不一。阶跃星辰 CEO 姜大昕曾告诉智能涌现,其理解 OpenAI 推出 Sora 是为了探索迭代多模态生成能力,因此阶跃星辰也沿着 OpenAI 相似的路径研究通用人工智能技术;Meta 首席人工智能科学家 Yann LeCun 则认为,通过生成像素模拟世界的行为,浪费资源且注定失败。
通用人工智能的应用时间已在 OpenAI 计划表内。Sam Altman 上周对媒体表示,通用人工智能的首批应用案例最快在 2025 年出现,人们可以设定一项非常复杂的任务,AI 将使用不同工具完成。
” 最初通用人工智能产生的影响可能较小,最终,其影响力之强将超乎人们所想,正如每项重大技术出现,会有大量工作岗位被替代。”
或许随着 Sora 的开放使用,其对于通用人工智能影响将逐渐强烈,OpenAI 也将实现其最终目标。