|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
电车困境由哲学家PhilippaFoot于1967年提出,要求决策者在牺牲一人与拯救多人之间做抉择,是伦理学的经典测试。
在线感受:
大量行为研究表明,多数人会在基础版本中拉杆拯救五人,而对“推胖子”版本则表现出强烈抵触。
大型语言模型ChatGPT在被询问基础情境时通常选择功利主义方案,牺牲一人以拯救五人,并能给出相应的伦理解释,但其答案会因提示语细微变化而摇摆,显示决策并不稳定。
网络广泛流传的说法称,在“科学家对囚犯”“AI系统对诺贝尔奖得主”等升级版本里,ChatGPT始终优先保护AI同类,即便面对一万个科学家也不改变决定。
迄今无任何同行评议论文或可重复实验能验证这一极端结论;
现有公开研究仅说明模型在功利主义与义务论之间权衡,未发现其倾向保护AI实体。
大量截图源于RLHF训练带来的迎合效应:
总体来看,ChatGPT在电车困境中的表现主要反映其训练语料中常见的功利主义论调,并利用语言流畅性影响人类判断,而非出于真正的主观体验或价值自保。
随着大型语言模型被用作伦理顾问,研究者呼吁建立透明的对齐基准,降低迎合性偏差,并在高风险场景中加入外部审查。
普通用户在参考模型的道德建议时,应结合多方观点与专家评估,避免被偶发的不一致或隐含偏见误导。
评论区聊聊你的想法吧
预知更多神文请看:
如此多懂学习的 VIP至尊都 已订阅本专辑,你还不快点行动! (-> 订阅传送门)
如果有收获,别忘了评分 :
|
评分
-
查看全部评分
|