跳转到内容

Sora (人工智能模型):修订间差异

维基百科,自由的百科全书
删除的内容 添加的内容
InternetArchiveBot留言 | 贡献
补救3个来源,并将0个来源标记为失效。) #IABot (v2.0.9.5
Cewbot留言 | 贡献
清理跨語言連結VideoPoet成為內部連結:編輯摘要的紅色內部連結乃正常現象,經繁簡轉換後存在,非bot錯誤編輯 (本次機械人作業已完成44%)
 
第21行: 第21行:
* [[文本到图像生成模型]]
* [[文本到图像生成模型]]
* [[DALL-E]]
* [[DALL-E]]
* {{link-en|VideoPoet}}
* [[VideoPoet]]
{{div col end}}
{{div col end}}



2024年9月14日 (六) 23:45的最新版本

Sora
Sora生成的女子在东京街道上行走的视频
開發者OpenAI
首次发布2024年2月15日,​7個月前​(2024-02-15
平台OpenAI
网站openai.com/sora 编辑维基数据

Sora是一个能以文本描述生成视频的人工智能模型,由美国人工智能研究机构OpenAI开发。[1]

Sora这一名称源于日文“空”(そら sora),即天空之意,以示其无限的创造潜力。[1]其背后的技术是在OpenAI的文本到图像生成模型DALL-E基础上开发而成的。[2]模型的训练数据既包含公开可用的视频,也包括了专为训练目的而获授权的版权视频,但OpenAI没有公开训练数据的具体数量与确切来源。[1]

OpenAI于2024年2月15日向公众展示了由Sora生成的多个高清视频,称该模型能够生成长达一分钟的视频。[2]同时,OpenAI也承认了该技术的一些缺点,包括在模拟复杂物理现象方面的困难。[3]麻省理工科技评论》的报道称演示视频令人印象深刻,但指出它们可能是经精心挑选的,并不一定能代表Sora生成视频的普遍水准。[2]

由于担心Sora可能被滥用,OpenAI表示目前没有计划向公众发布该模型,而是给予小部分研究人员有限的访问权限,以理解模型的潜在危害。[1][2]Sora生成的视频带有C2PA元数据标签,以表示它们是由人工智能模型生成的。[1]OpenAI还与一小群创意专业人士分享了Sora,以获取对其实用性的反馈。[1]

参见

[编辑]


参考文献

[编辑]
  1. ^ 1.0 1.1 1.2 1.3 1.4 1.5 Cade Metz. OpenAI Unveils A.I. That Instantly Generates Eye-Popping Videos. The New York Times. 2024-02-15 [2024-02-16]. (原始内容存档于2024-02-15). 
  2. ^ 2.0 2.1 2.2 2.3 Will Douglas Heaven. OpenAI teases an amazing new generative video model called Sora. MIT Technology Review. 2024-02-15 [2024-02-16]. (原始内容存档于2024-02-15). 
  3. ^ Antonio Pequeño IV. OpenAI Reveals ‘Sora’: AI Video Model Capable Of Realistic Text-To-Video Prompts. Forbes. 2024-02-15 [2024-02-16]. (原始内容存档于2024-02-15). 

外部链接

[编辑]