Runway向所有用户开放但是却有一个问题

“
RunwayML最新发布的Gen-3 Alpha模型,以其逼真的视频生成能力,标志着AI技术在创意领域的新飞跃。用户现可通过付费订阅,体验这一前沿技术带来的无限可能。
据彭博社消息,人工智能视频生成领域的先行者RunwayML近日宣布,其最新研发的前沿模型Gen-3 Alpha已全面向公众开放。这款模型的推出,不仅为创意产业带来了新的活力,也预示着AI技术在视频制作领域的进一步深入。
Gen-3 Alpha模型的发布,是RunwayML继去年推出Gen-1和Gen-2模型后的又一次技术革新。与前两代模型相比,Gen-3 Alpha在速度、保真度、一致性和动作表现上均有显著提升。用户可以通过文本、图像或视频提示,生成极为逼真的AI视频,这在广告和创意内容制作等领域具有广泛的应用潜力。
然而,与前两代模型免费提供不同,Gen-3 Alpha模型的使用需要用户升级到RunwayML的付费套餐,价格从每位编辑每年12美元起,按年计费。这一变化,虽然增加了用户的使用成本,但同时也反映了RunwayML在技术研发和市场推广方面的投入。
RunwayML表示,Gen-3 Alpha模型的开发得到了一支由研究科学家、工程师和艺术家组成的跨学科团队的合作支持。尽管公司并未透露关于训练数据来源的具体信息,但其在模型性能上的突破,已经引起了业界的广泛关注。
目前,Gen-3 Alpha模型主要支持文本到视频的转换模式,允许用户通过自然语言提示将创意快速实现。未来,RunwayML计划将该模型扩展到图像到视频和视频到视频的转换模式,并与平台上的Motion Brush、高级摄像机控制和导演模式等控制功能兼容。
值得注意的是,使用Gen-3 Alpha模型生成的视频长度最长可达10秒,生成速度会根据视频长度而有所不同。虽然这与OpenAI承诺的Sora模型的一分钟长视频生成相比还有差距,但Gen-3 Alpha的性能已经超越了市场上大多数AI视频模型。
创意社区对Gen-3 Alpha模型的反响热烈,Stability AI的前CEO Emad Mostaque已经试用了该模型,并对其生成效果与Sora进行了比较。RunwayML也预计,Gen-3 Alpha在未来几个月内将不断改进,并且可能会推出免费版本供用户使用。
RunwayML将Gen-3 Alpha模型视为“即将推出的一系列模型的开端”,这些模型将在为大规模多模态训练而构建的新基础设施上进行训练,是朝着构建能够代表和模拟现实世界中遇到的各种情境和交互的通用世界模型迈出的重要一步。这一技术的突破,无疑将为创意产业带来革命性的影响,同时也为AI技术在视频制作领域的应用开辟了新的道路。
王者归来!Runway震撼发布Gen3,文生视频再填重磅!


共有 0 条评论