近日,OpenAI推出的视频生成模型Sora引起全球关注。
它能够根据文本命令创建逼真且富有想象力的场景,产生高清短视频。
这项技术的出现不仅展示了人工智能在视频生成领域的巨大潜力,也对影视行业等传统行业产生了深远的影响。
那么,当Sora到来时,会破坏谁的工作呢? Sora的神奇之处在于它强大的生成能力和理解能力。
它能够从静止图像生成视频、扩展现有视频或填充丢失的帧。
同时,Sora对语言也有着深刻的理解,不仅能理解用户的文字提示,还能理解所讨论的事物在物理世界中是如何存在的。
这使得 Sora 能够生成具有逻辑和物理意义的视频。
然而,Sora的出现也引起了一些担忧。
一方面,可能会颠覆现有的影视行业,用人工智能取代一些工作机会。
另一方面,Sora也为“深度伪造”技术提供了可能,增加了虚假信息传播的风险。
针对这些担忧,OpenAI表示将采取一系列措施确保Sora的安全可信。
首先,他们计划在向公众发布产品时确保生成的视频包含源元数据,并推出工具来检测视频的真实性。
其次,OpenAI承诺在产品中使用Sora之前会采取安全措施,包括对抗性测试和文本输入提示的验证。
尽管如此,如何平衡技术进步和社会保障仍然是一个需要深入思考的问题。
由于目前的治理框架和控制措施尚未完善,仅靠企业可能无法提供AI社会所需的安全和信任。
因此,政府、企业和社会各界需要共同努力,共同探索如何保障人工智能技术的健康发展。