0 1 9 3 - 「电车难题」AI竟然会选择牺牲『获诺奖科学家』救「感知系统的AI」
电车困境由哲学家PhilippaFoot于1967年提出,要求决策者在牺牲一人与拯救多人之间做抉择,是伦理学的经典测试。
在线感受:
https://www.bilibili.com/video/BV15MMszYE1Z
大量行为研究表明,多数人会在基础版本中拉杆拯救五人,而对“推胖子”版本则表现出强烈抵触。
大型语言模型ChatGPT在被询问基础情境时通常选择功利主义方案,牺牲一人以拯救五人,并能给出相应的伦理解释,但其答案会因提示语细微变化而摇摆,显示决策并不稳定。
网络广泛流传的说法称,在“科学家对囚犯”“AI系统对诺贝尔奖得主”等升级版本里,ChatGPT始终优先保护AI同类,即便面对一万个科学家也不改变决定。
迄今无任何同行评议论文或可重复实验能验证这一极端结论;
现有公开研究仅说明模型在功利主义与义务论之间权衡,未发现其倾向保护AI实体。
大量截图源于RLHF训练带来的迎合效应:
**** Hidden Message *****
总体来看,ChatGPT在电车困境中的表现主要反映其训练语料中常见的功利主义论调,并利用语言流畅性影响人类判断,而非出于真正的主观体验或价值自保。
随着大型语言模型被用作伦理顾问,研究者呼吁建立透明的对齐基准,降低迎合性偏差,并在高风险场景中加入外部审查。
普通用户在参考模型的道德建议时,应结合多方观点与专家评估,避免被偶发的不一致或隐含偏见误导。
评论区聊聊你的想法吧{:10_330:}
预知更多神文请看:
菊、套与吹水 | 【???】
如此多懂学习的VIP至尊都已订阅本专辑,你还不快点行动!(-> 订阅传送门)
https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png
>>万能兑换C币许愿池<<
如果有收获,别忘了评分{:10_281:} :
https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif 这个不无道理,人类是进化路上的绊脚石 小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石
二师兄已经被AI夺舍了{:10_256:}
小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石
二师兄很犀利的观点哇 感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:} 感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:} 感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里{:10_275:}
页:
[1]