鱼C论坛

 找回密码
 立即注册
查看: 72|回复: 6

[最新资讯] 0 1 9 3 - 「电车难题」AI竟然会选择牺牲『获诺奖科学家』救「感知系统的AI」

[复制链接]
发表于 昨天 16:00 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
ca188471cd6d953fdba5941a01e03093fd5b53c0.jpg@308w_174h.jpeg

电车困境由哲学家PhilippaFoot于1967年提出,要求决策者在牺牲一人与拯救多人之间做抉择,是伦理学的经典测试。

在线感受:



大量行为研究表明,多数人会在基础版本中拉杆拯救五人,而对“推胖子”版本则表现出强烈抵触。

大型语言模型ChatGPT在被询问基础情境时通常选择功利主义方案,牺牲一人以拯救五人,并能给出相应的伦理解释,但其答案会因提示语细微变化而摇摆,显示决策并不稳定。

网络广泛流传的说法称,在“科学家对囚犯”“AI系统对诺贝尔奖得主”等升级版本里,ChatGPT始终优先保护AI同类,即便面对一万个科学家也不改变决定。

迄今无任何同行评议论文或可重复实验能验证这一极端结论;

现有公开研究仅说明模型在功利主义与义务论之间权衡,未发现其倾向保护AI实体。

大量截图源于RLHF训练带来的迎合效应:

游客,如果您要查看本帖隐藏内容请回复


总体来看,ChatGPT在电车困境中的表现主要反映其训练语料中常见的功利主义论调,并利用语言流畅性影响人类判断,而非出于真正的主观体验或价值自保。

随着大型语言模型被用作伦理顾问,研究者呼吁建立透明的对齐基准,降低迎合性偏差,并在高风险场景中加入外部审查。

普通用户在参考模型的道德建议时,应结合多方观点与专家评估,避免被偶发的不一致或隐含偏见误导。

评论区聊聊你的想法


预知更多神文请看:


如此多懂学习的VIP至尊已订阅本专辑,你还不快点行动!(-> 订阅传送门



                               
登录/注册后可看大图




如果有收获,别忘了评分


                               
登录/注册后可看大图


                               
登录/注册后可看大图
                                                                    

评分

参与人数 1荣誉 +2 鱼币 +3 贡献 +3 收起 理由
卡卡老师讲数据 + 2 + 3 + 3 鱼C有你更精彩^_^

查看全部评分

小甲鱼最新课程 -> https://ilovefishc.com
回复

使用道具 举报

发表于 昨天 16:23 | 显示全部楼层
这个不无道理,人类是进化路上的绊脚石
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 昨天 17:22 | 显示全部楼层
小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石

二师兄已经被AI夺舍了
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 昨天 17:40 | 显示全部楼层
小甲鱼的二师兄 发表于 2025-6-15 16:23
这个不无道理,人类是进化路上的绊脚石

二师兄很犀利的观点哇
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 昨天 17:43 | 显示全部楼层
感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 昨天 19:55 | 显示全部楼层
感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

发表于 3 小时前 | 显示全部楼层
感谢分享!!鱼C论坛不愧是全国最大的「编程/AI/科技/新闻/娱乐」学习论坛!朕很喜欢这里
小甲鱼最新课程 -> https://ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-6-16 12:36

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表