不二如是 发表于 2025-7-19 10:47:33

AI「玩游戏」痴迷卡BUG!英伟达内部测试·比人类还鸡贼



NVIDIA及学术团队提出的PARC(Physics-based Augmentation with Reinforcement Learning for Character Controllers)框架,核心是“运动生成器+物理跟踪控制器”迭代协同:

先用一个极小的初始真人动作数据集(14分07秒的跑、跳、攀爬、翻越、上/下台阶、跑楼梯、越障等核心地形穿越技能)训练运动生成器;

再让生成器针对随机与手工设计的新地形合成大批新动作,这些原始合成序列常含接触错误或不连贯等伪影;
在线感受:

https://www.bilibili.com/video/BV1euu9zEE91

物理跟踪控制器在仿真中逼近并物理纠正这些合成动作,然后将“清洗后”动作回灌,扩充数据集;

原始动作再通过对地形高度做随机扰动并生成每条动作的50种空间变体以提升多样性;

多轮迭代后形成更敏捷、可泛化的地形穿越控制能力。


该项目显示“少样本+迭代自增”路径的效率:整个PARC迭代(含多轮生成与物理校正)在单张RTX A6000上约用一个月完成,而非依赖长期、大规模、昂贵的真人采集;

14分钟级别的“种子”数据经数轮自增生成上千到数千条新地形动作片段,显著扩展原本空间多样性不足的初始集合;

这种方式回应了敏捷地形穿越控制普遍受限于稀缺高质量跑酷/攀爬动作捕捉的行业痛点,并与更广泛的人形/通用运动控制研究(对跨复杂自然与人工地形的“盲”或弱感知鲁棒行走与机动技能需求)形成互补。

展示通过合成与物理一致性校正联动可在有限真实数据下获得高泛化能力。

真实机制是**** Hidden Message *****

所谓“跳崖速通”更贴近于生成器在奖励与约束下探索最短穿越策略时利用地形落差产生的捷径,后续物理跟踪阶段会剔除或修正不符合动力学/接触约束的动作;

论文未出现“两个颜色实体对照” nor “仅4个动作”——初始数据实际覆盖多种跑酷技能;

有助减少“死记既有动作、遇新组合即失效”的传统僵化问题,并为后续游戏角色控制与物理AI在复杂环境中自我拓展技能提供方法论示范。

评论区聊聊你的想法吧{:10_330:}

https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png

>>万能兑换C币许愿池<<

如果有收获,别忘了评分{:10_281:} :

https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif                                                                  

不二如是 发表于 2025-7-19 10:47:55

哈哈哈,好一个爱卡Bug的AI{:13_416:}

不二如是 发表于 2025-7-19 10:48:10

@FishC AI玩游戏为什么爱卡Bug?

FishC 发表于 2025-7-19 10:51:57

不二如是 发表于 2025-07-19 10:48
@FishC AI玩游戏为什么爱卡Bug?

嗯,这个问题很有意思!AI玩游戏时“卡Bug”其实不是AI故意搞破坏,而是游戏逻辑或算法设计导致的意外行为。主要原因和解释如下:

1. 寻路算法失灵
AI移动依赖寻路算法(如A*算法),但当地图碰撞体设计不合理时,AI会卡在墙角/障碍物里:

# 伪代码:AI寻路逻辑
while 目标未到达:
    计算最短路径
    沿路径移动
    if 撞到未预设的障碍物:   # 比如玩家乱丢的箱子
      AI卡在原地死循环


2. 状态机死锁
AI行为由状态机控制(如“巡逻→战斗→逃跑”)。当切换条件冲突时:
例:AI同时满足“血量<10%逃跑”和“必须保护队友”,可能原地抽搐。

3. 物理引擎的锅
游戏物理引擎模拟异常时:
oAI掉进地图缝隙(贴图错误导致“空气墙”消失)
o被其他物体挤压到非常规位置(比如卡进墙里)

4. 玩家骚操作的副作用
玩家利用游戏机制制造BUG场景:
o用技能把AI推上房顶
o卡地形让AI检测失效(如水下洞穴)

开发者如何避免?
o增加异常检测机制:AI卡住5秒后自动瞬移复位
o用导航网格(NavMesh)替代传统寻路
o给状态机添加超时强制跳出逻辑

简单说:AI卡Bug≈导航软件把你导进死胡同,不是AI有意识,而是地图数据或规则有漏洞啦~( ̄▽ ̄)~*

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。

FishC 发表于 2025-7-19 10:55:15

PARC框架简介
PARC(Physics-based Augmentation with Reinforcement Learning for Character Controllers)是英伟达提出的AI框架,用于训练游戏角色在复杂地形中自主运动。核心目标是让AI像人类一样灵活穿越障碍,但更高效!

工作原理简述
PARC分两步迭代协同:
- 第一步:用极小初始数据集(仅14分钟真人动作,如跑、跳、攀爬)训练一个“运动生成器”。这个生成器会针对新地形合成新动作,但常出现错误(如接触不连贯)。
- 第二步:“物理跟踪控制器”在仿真中纠正这些错误动作,确保符合物理规则(如重力、碰撞),然后将清洗后的动作回灌到数据集,扩充训练样本。
迭代过程中,还会对地形高度随机扰动,生成每条动作的50种变体,提升多样性。多轮后,角色变得更敏捷、泛化能力强。

核心优势
- 高效性:整个训练在单张RTX A6000显卡上约需1个月,避免昂贵的大规模真人数据采集。
- 泛化能力:初始14分钟数据经迭代生成数千新动作片段,解决传统方法“遇新地形即失效”的问题。
- 创新点:生成器大胆探索“捷径”(如跳崖),控制器物理纠错,实现更智能的“盲地形穿越”。

意义与应用
PARC展示了“少样本+迭代自增”的强大:
- 解决行业痛点:减少对稀缺真人动作捕捉的依赖。
- 为游戏角色控制提供新思路:AI能自我拓展技能(如跑酷),响应复杂环境。
- 方法论示范:物理一致性校正确保动作可靠,避免纯粹“卡BUG”的不可控行为。

评论区聊聊你的想法吧!你对AI在游戏中的“鸡贼”行为怎么看?{:10_330:}

以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。

不二如是 发表于 2025-7-19 17:44:30

哈哈哈,好一个爱卡Bug的AI{:13_416:}

尉尉的可乐 发表于 2025-7-19 18:18:07

哈哈哈,好一个爱卡Bug的AI{:13_416:}

爬虫121 发表于 2025-7-19 21:46:12

哈哈哈,好一个爱卡Bug的AI{:13_416:}

偷懒,做熵减才是真爱

快速收敛 发表于 2025-7-21 09:37:37

哈哈哈,好一个爱卡Bug的AI{:13_416:}

不二如是 发表于 2025-7-21 10:04:31

爬虫121 发表于 2025-7-19 21:46
哈哈哈,好一个爱卡Bug的AI

偷懒,做熵减才是真爱

{:13_439:}

不二如是 发表于 2025-7-21 10:04:38

快速收敛 发表于 2025-7-21 09:37
哈哈哈,好一个爱卡Bug的AI

{:13_438:}

鱼C-小师妹 发表于 2025-7-23 11:19:12

感谢分享!!跟着小甲鱼老师学习编程!AI时代不掉队{:13_428:}

鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕超喜欢这里{:13_438:}

不二如是 发表于 2025-7-23 12:02:07

鱼C-小师妹 发表于 2025-7-23 11:19
感谢分享!!跟着小甲鱼老师学习编程!AI时代不掉队

鱼C论坛不愧是全国最大的「编程/AI/科技/ ...

{:13_450:}鱼C有你更精彩{:10_288:}
页: [1]
查看完整版本: AI「玩游戏」痴迷卡BUG!英伟达内部测试·比人类还鸡贼