导读 继dall-e和chatgpt之后,大约一个月前,openai凭借其新的soraai再次震惊了世界。sora是一款文本到视频生成人工智能应用程序,可以通过简单...

继dall-e和chatgpt之后,大约一个月前,openai凭借其新的soraai再次震惊了世界。sora是一款文本到视频生成人工智能应用程序,可以通过简单的文本提示制作出令人难以置信的视频,就像dall-e通过几行文本当场生成图像一样。

然而,尽管sora演示可能令人印象深刻,但它并不是公开发布的。openai仅展示了该产品,并表示它将提供给redteamingnetwork,该网络是“一个由值得信赖且经验丰富的专家组成的社区,可以帮助为(公司)的风险评估和缓解工作提供信息。”

该公开版本即将发布,openai的miramurati在接受采访时表示,它将在今年的某个时候发布。虽然没有提供实际的发布日期,但openai高管似乎确信sora将于2024年公开发布。

穆拉蒂借助sora生成的新剪辑向《华尔街日报》的乔安娜·斯特恩和全世界解释了sora,这些剪辑可在本文末尾的视频中观看。

我们了解到sora剪辑需要几分钟才能生成。演示剪辑是高清分辨率(720p)的20秒视频。生成这些剪辑的处理成本超过了dall-e图像或chatgpt响应。但当sora推出时,openai的目标是让它们变得价格实惠。不过mirati没有透露sora的任何定价细节。或者chatgptplus用户是否可以使用sora。

这位openai高管还解释了该公司如何培训sora。人工智能分析了来自公共来源的大量视频,并学会了识别各种事物。人工智能可以识别物体和动作。在分析提示时,它会根据该知识绘制场景草图以生成结果。以下是openai几周前分享的展示sora功能的视频:

murati仅将shutterstock列为训练人工智能的视频的潜在来源。但所有公开可用的东西都可以用来制作《sora》。这可能包括来自facebook和youtube的数据,但该高管不愿证实这些来源。

正如您在下面的剪辑中看到的那样,sora的视频并不完美。人工智能可能会误解提示,并且可能会造成连续性问题。但sora会变得更好,可能会变得更好,其中一些视频看起来几乎和有人在野外录制的真实视频一样好。

为此,openai希望确保视频被相应地标记为ai创作,它们将有openai水印和元数据信息来指出这一点。我想知道这是否足以防止虐待。就像有人故意制作旨在误导人群的剪辑一样。

openai在sora中内置的一项保护措施模仿了dall-e。您无法在dall-e中生成公众人物的图像。sora剪辑也会发生同样的情况。当涉及更敏感的提示时,openai可能会采取额外的保护措施。或者在视频中使用裸体。

sora会在选举前公开推出吗?这是我们必须拭目以待的事情。主要是因为今年世界各地都有丰富的选举。如果我们谈论11月的美国总统选举,openai没有时间表。

这位高管确实表示,错误信息和有害偏见已在其关注范围内。她还明确表示,当涉及到对全球选举和其他问题的直接影响时,openai不会发布任何他们没有信心的内容。

至于对好莱坞的明显威胁,murati表示openai希望sora成为“扩展创造力”的工具。它希望创作者参与这一过程,并告知openai如何开发和部署sora。