007 ☆ 自动驾驶的困境 |【AI道德博弈】
本帖最后由 不二如是 于 2018-6-10 11:06 编辑上一讲我们搞定了赌徒博弈,本次来看一个很时髦的AI道德博弈。
在开始前,请先为下面案例中的小不二做出选择,原景重现:
小不二正在以很快的速度开车,突然发现前边有一群小学生在马路上打闹。
要避让这些小学生,你就会撞到路边的建筑物墙上。
而如果撞墙,你的生命安全就面临危险。
请问在这种情况下,小不二是选择撞墙还是选择撞向小学生呢?
道德困境
有良知的人,比如本人{:10_297:} 。。。
肯定是宁可自己面对生命危险,也不能撞小学生。
好。
那如果汽车厂商告诉你:
我们这个车就是讲道德的,我们的自动驾驶系统在这种情况下一定会首先确保行人的安全。
请问这样的车鱼油会买吗?
反正,本人是不会买了。
为啥呢?
我牺牲我自己,是我自己的决定。
我不能让汽车替我做决定!
万一我临时不想死怎么办?
万一汽车判断错了怎么办?
我不想开一辆在某种情况下会牺牲我的车。
这就是道德规范:
**** Hidden Message *****
道德规范
现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家。
但是没有研究出来什么令人满意的方案。
奔驰公司已经宣布:
他们对自动驾驶汽车的设定是优先保证自己车里司机和乘客的安全。
在前面那种情况下,奔驰的车会果断撞向小学生。
那你说这不是杀手汽车吗?
这种汽车怎么能让上路呢?!
所以这就出现了一个道德困境。
人在现场不管做出怎样的临时反应,我们都认为是正常的。
可是人工智能不管事先怎么设定,我们都觉得别扭。
看到了不,这就是一种没有解的博弈,双输。
或许等到那个情景发生时,就知道怎么办了。。。
如果有帮助,别忘了评分{:10_281:} :
http://xxx.fishc.com/forum/201709/19/094516hku92k2g4kefz8ms.gif
这位鱼油,如果喜欢本系列帖子,请订阅 专辑☞(传送门)(不喜欢更要订阅{:10_278:} ) AI不明白道德的意义,AI只是在无意义的执行罢了
具体在这种情况下AI会如何做,全看程序员如何写代码
如果程序员在这里加入了一些随机元素,那么只有天知道在这种情况下AI会如何做
这个问题引人深思啊 这一瞬间AI跟你说,主人你自己决定,然后你一下没把握住方向盘,自己撞了 真是一把没有“握把的刀“ 看来可以请装甲车出马了{:10_256:} 可以让用户自行选择,开车之前设定好,遇到紧急情况按用户设定反应 遇到紧急情况可以选择让客户自己决定是去是留,是生是死……{:10_266:} 顶一波 good 可怕
马路上有红绿灯....车子不肯能是个近视眼吧.... 因为最终不知道汽车的判断方式所以也无法判断责任方,是吗 开车之前要司机选择模式:1我优先、2别人优先、3谁遵守交通规则谁优先,4造成损失最小的方案优先! 踩刹车不就完了吗 了解一下 看看 emmm {:5_109:} 无论怎么样都要撞的话当然是停车了
页:
[1]
2