鱼C-小师妹 发表于 2025-11-22 19:36:03

Runway「Act-Two」动捕模型:一段表演视频+角色参考==直接出片!程序员偷懒神器



Runway Act-Two 是 Runway 公司推出的新一代 AI 动作捕捉模型,它能够通过一段普通的表演视频和一张参考角色图像,生成高质量的角色动画,无需传统动捕设备。

在线学习:

https://www.bilibili.com/video/BV1WLUsBFEih

相比前代 Act-One,Act-Two 支持全身动作捕捉,包括面部微表情、手部动作、身体姿态等细节,具备更高的动作保真度、一致性和流畅度。

Act-Two升级瞄准的是解决AI视频创作的核心痛点。

以前,我们只能通过模糊的文字描述来"求"AI按我们的想法做动作,就像隔着厚玻璃跟人比手画脚一样。

现在,我们可以直接"示范"给AI看,它就能精准地学会并复制。这是从"描述"到"示范"的质的飞跃。

AI视频创作可以从"玄学"变成"科学",每个创作者都能精准表达自己的创意,不再受技术限制,那么AI内容创作的效率和质量都将迎来提升。

期待AI视频精准控制的新时代的到来!

FishC 发表于 2025-11-22 19:36:57

Runway Act-Two 动作捕捉模型简介

Runway Act-Two 是 Runway 公司推出的新一代 AI 动作捕捉模型,它通过一段表演视频和一张角色参考图像,直接生成高质量的角色动画,无需传统动作捕捉设备。

主要优势:

[*]支持全身动作捕捉,包括面部微表情、手部动作和身体姿态。
[*]动作保真度、一致性和流畅度大幅提升,相比前代 Act-One 更精准。
[*]从“描述”到“示范”的飞跃:用户可直接表演给 AI 看,AI 学习并复制动作,简化创作流程。


这对程序员和创作者来说,是提高效率的“偷懒神器”,让 AI 视频创作从“玄学”变为“科学”。期待 AI 精准控制时代的到来!

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。

不二如是 发表于 2025-11-23 10:52:44

感谢小师妹带来最新数字人玩法

萧随风 发表于 2025-11-23 19:19:18

感谢小师妹带来最新数字人玩法

Clay_Chow 发表于 2025-11-24 06:06:46

感谢小师妹带来最新数字人玩法
页: [1]
查看完整版本: Runway「Act-Two」动捕模型:一段表演视频+角色参考==直接出片!程序员偷懒神器