鱼C论坛

 找回密码
 立即注册
查看: 15|回复: 0

[最新资讯] 「RoboStriker」上海AI Lab新突破!零样本直接部署宇树G1,分层决策 + 博弈 RL ...

[复制链接]
发表于 1 小时前 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
45597639d118133a30045973cad07cc6f4544c2d.jpg@308w_174h.jpeg

「RoboStriker」上海AI Lab新突破!

零样本直接部署宇树G1,分层决策 + 博弈 RL 实现胜率断层第一

在线感受:



如何让人形机器人既不摔倒又能打出有效重拳,一直是机器人控制领域的难题。

在拳击这种高接触、高动态、强对抗的任务中,机器人不仅要保持身体平衡,还要实时制定策略,这涉及高维接触动力学、实时决策和多智能体博弈等复杂问题。

传统多智能体强化学习虽然能提供策略框架,但直接用于人形机器人时,往往因为动作空间过大、缺乏物理运动先验而难以收敛。

为了解决这一矛盾,来自上海交通大学和上海人工智能实验室等团队提出了名为RoboStriker的研究,目标是:

游客,如果您要查看本帖隐藏内容请回复

RoboStriker采用分层三阶段架构,把高层策略决策与低层物理控制解耦。

第一阶段通过人类动作捕捉数据训练运动跟踪模型,让机器人掌握完整拳击动作库。

第二阶段把这些技能压缩成结构化潜在动作空间,并通过投影到单位超球面进行正则化,确保机器人只在物理可行的动作范围内探索。

第三阶段引入潜在空间自博弈机制,让机器人在压缩动作空间中学习对抗策略,从而大幅提升训练稳定性和效率。

这种设计本质上把人类经验、运动学约束和强化学习结合在一起。

实验结果显示,RoboStriker在仿真对抗中取得了较强竞争表现,并具备从仿真到现实迁移的潜力。

这类研究不仅能推动机器人竞技,还可能应用在灾害救援、康复训练、工业协作等需要稳定运动与智能决策的场景。

评论区聊聊你的想法



                               
登录/注册后可看大图




如果有收获,别忘了评分


                               
登录/注册后可看大图


                               
登录/注册后可看大图
                                                                    
小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2026-2-23 13:59

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表