英伟达首席研究科学家「范麒熙」泼冷水:真人操控=机器人唯一数据源!完全无法规...
真正的机器人数据采集和训练,远没有互联网文本那么简单。
正如先驱者伊利亚所言,大型语言模型(LLM)训练时所依赖的数据正迅速消耗殆尽,互联网已成为人工智能的“化石燃料”。
相比之下,机器人控制信号是更为珍贵的连续值数据,它们无法从维基百科或Reddit等公开网络渠道获得,而只能通过专门的实地采集来获取。
在线学习:
https://www.bilibili.com/video/BV1VjJhzrEBT
在英伟达总部的一家咖啡馆中,研究人员部署了多台人形机器人,并借助“遥操作”技术进行数据采集。
通过让操作员佩戴VR头盔,实时捕捉手部姿势并传输给机器人,研究团队能够演示诸如拿起面包、涂抹蜂蜜等精细操作。
这种方式固然能生成高保真演示数据,但速度极其缓慢,且成本昂贵,人力无法长时间持续。
因此,从规模化和可扩展性的角度来看,单纯依靠人类燃料进行数据采集并不可行。
为了打破这一瓶颈,英伟达的研究团队正开发基于GPU加速的高保真模拟环境,通过数字孪生技术和程序化方法合成“虚拟”机器人演示
。先让人类完成一系列真实世界的任务并录制高质量数据,然后在模拟场景中替换对象、调整机械臂参数,从而批量生成近乎无限的训练样本。
这一以合成数据为核心的策略,不仅降低了成本,也显著提高了数据量级,为机器人智能的飞跃式发展提供了可持续的燃料。
英伟达高级研究科学家范麟熙博士(Linxi “Jim” Fan)现任通用具身智能体研究组(GEAR Lab)负责人。
他于2016年以满绩点毕业于哥伦比亚大学,并荣获Illig奖章,后于2021年在斯坦福大学计算机科学系获博士学位,师从李飞飞教授。
博士毕业后,范博士先后在OpenAI、谷歌云AI、百度硅谷AI实验室和MILA实习,累积了丰富的研究经验。
加入英伟达后,他领导团队开发了MineDojo、Eureka和GR00T等前沿项目,致力于将合成数据与大规模模拟相结合,推动具身智能体在虚拟与现实世界中的协同突破。
评论区聊聊你的想法吧{:10_330:}
如果有收获,别忘了评分{:10_281:} :
https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
>>万能兑换C币许愿池<< 感谢分享 朕又在鱼C学到东西啦!非常满意{:10_275:} 感谢分享 朕又在鱼C学到东西啦!非常满意{:10_275:} 快速收敛 发表于 2025-5-22 08:35
感谢分享 朕又在鱼C学到东西啦!非常满意
{:10_275:}鱼C有你更精彩{:10_288:}
页:
[1]