「STARFlow-V」苹果放大招开源「全能AI视频生成模型」!
今年年底,Apple 出人意料地「开源」了一款全新 AI 视频生成模型 STARFlow-V。
这个模型并不是沿用目前主流的扩散式(diffusion)方案,而是采用了“normalizing flows + transformer autoregressive flow”的架构——也就是在潜在空间里,将噪声直接映射为视频。
这种方法让训练与生成流程大大简化,同时避免了扩散模型那种逐帧去噪、费时费显卡的问题。
在线学习:
https://www.bilibili.com/video/BV1jH2hBaEAX
STARFlow-V 的强项在于它的“多功能性”:
同一个模型 checkpoint,就能执行从文本到视频(text-to-video)、从图片到视频(image-to-video)、甚至从已有视频到新视频(video-to-video editing)等任务,无需为每种任务重新训练或修改结构。
其双层架构(global-local design)负责分开处理整体时序逻辑与每帧画面细节,有效减少随着帧数增长的误差积累,从而保证视频连贯、稳定。
不过现实也有局限。当前版本输出为 480p/16fps,而且生成速度虽快(单次 forward pass + 并行流程,但据实测仍不一定达到真实时间渲染能力)。
与一些主流商业视频生成模型(如 Runway Gen-3、OpenAI Sora 等)相比,在画质、帧率、真实感等方面还有差距。
更重要的是,虽然官方说「open-weights」,但许可条款对商业用途与再分发有严格限制,不属于那种“完全自由可商用”的开源。
评论区聊聊你的想法吧{:10_330:}
https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png
>>万能兑换C币许愿池<<
如果有收获,别忘了评分{:10_281:} :
https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif 感谢分享 朕又在鱼C学到最前沿AI圈动态啦!非常满意{:10_275:}
页:
[1]