在引发全球视觉领域震撼的两年后,OpenAI今日宣布其视频生成大模型Sora正式迭代至2.0版本,并首次向全球普通创作者开放网页端公测。Sora 2.0最大的技术跃升在于其突破了“单向生成”的限制,引入了革命性的“场景时空一致性编辑”功能。用户不仅可以输入文本生成长达3分钟的4K 60帧电影级视频,还可以像玩3D游戏一样,在生成的视频中直接拖拽调整摄像机视角、更改光影方向,甚至实时替换视频中的特定人物或物体,且背景物理规律(如水面反光、物体阴影、重力效果)保持绝对自然连贯。
Sora 2.0的底层模型融合了全新的3D神经辐射场(NeRF)与物理引擎先验知识,使得生成的视频不再仅仅是2D像素的堆砌,而是构建了一个完整的虚拟三维空间。这一工具的开放立刻在影视后期、游戏开发以及广告营销行业引发地震。多位好莱坞独立导演表示,Sora 2.0将极大地降低科幻与奇幻电影的视觉特效门槛,未来的影视工业体系或将从“实景拍摄+后期特效”向“AI全要素生成”的模式全面转型。

