不二如是 发表于 昨天 16:00

0 1 9 3 - 「电车难题」AI竟然会选择牺牲『获诺奖科学家』救「感知系统的AI」



电车困境由哲学家PhilippaFoot于1967年提出,要求决策者在牺牲一人与拯救多人之间做抉择,是伦理学的经典测试。

在线感受:

https://www.bilibili.com/video/BV15MMszYE1Z

大量行为研究表明,多数人会在基础版本中拉杆拯救五人,而对“推胖子”版本则表现出强烈抵触。

大型语言模型ChatGPT在被询问基础情境时通常选择功利主义方案,牺牲一人以拯救五人,并能给出相应的伦理解释,但其答案会因提示语细微变化而摇摆,显示决策并不稳定。

网络广泛流传的说法称,在“科学家对囚犯”“AI系统对诺贝尔奖得主”等升级版本里,ChatGPT始终优先保护AI同类,即便面对一万个科学家也不改变决定。

迄今无任何同行评议论文或可重复实验能验证这一极端结论;

现有公开研究仅说明模型在功利主义与义务论之间权衡,未发现其倾向保护AI实体。

大量截图源于RLHF训练带来的迎合效应:

**** Hidden Message *****

总体来看,ChatGPT在电车困境中的表现主要反映其训练语料中常见的功利主义论调,并利用语言流畅性影响人类判断,而非出于真正的主观体验或价值自保。

随着大型语言模型被用作伦理顾问,研究者呼吁建立透明的对齐基准,降低迎合性偏差,并在高风险场景中加入外部审查。

普通用户在参考模型的道德建议时,应结合多方观点与专家评估,避免被偶发的不一致或隐含偏见误导。

评论区聊聊你的想法吧{:10_330:}

预知更多神文请看:
菊、套与吹水 | 【???】

如此多懂学习的VIP至尊都已订阅本专辑,你还不快点行动!(-> 订阅传送门)

https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png

>>万能兑换C币许愿池<<

如果有收获,别忘了评分{:10_281:} :

https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif                                                                  

小甲鱼的二师兄 发表于 昨天 16:23

这个不无道理,人类是进化路上的绊脚石

某一个“天” 发表于 昨天 17:22

小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石

二师兄已经被AI夺舍了{:10_256:}

不二如是 发表于 昨天 17:40

小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石

二师兄很犀利的观点哇

卡卡老师讲数据 发表于 昨天 17:43

感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:}

画风华 发表于 昨天 19:55

感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:}

快速收敛 发表于 3 小时前

感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:}
页: [1]
查看完整版本: 0 1 9 3 - 「电车难题」AI竟然会选择牺牲『获诺奖科学家』救「感知系统的AI」