|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 不二如是 于 2018-6-10 11:06 编辑
上一讲我们搞定了赌徒博弈,本次来看一个很时髦的AI道德博弈。
在开始前,请先为下面案例中的小不二做出选择,原景重现:
小不二正在以很快的速度开车,突然发现前边有一群小学生在马路上打闹。
要避让这些小学生,你就会撞到路边的建筑物墙上。
而如果撞墙,你的生命安全就面临危险。
请问在这种情况下,小不二是选择撞墙还是选择撞向小学生呢?
道德困境
有良知的人,比如本人 。。。
肯定是宁可自己面对生命危险,也不能撞小学生。
好。
那如果汽车厂商告诉你:
我们这个车就是讲道德的,我们的自动驾驶系统在这种情况下一定会首先确保行人的安全。
请问这样的车鱼油会买吗?
反正,本人是不会买了。
为啥呢?
我牺牲我自己,是我自己的决定。
我不能让汽车替我做决定!
万一我临时不想死怎么办?
万一汽车判断错了怎么办?
我不想开一辆在某种情况下会牺牲我的车。
这就是道德规范:
道德规范
现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家。
但是没有研究出来什么令人满意的方案。
奔驰公司已经宣布:
他们对自动驾驶汽车的设定是优先保证自己车里司机和乘客的安全。
在前面那种情况下,奔驰的车会果断撞向小学生。
那你说这不是杀手汽车吗?
这种汽车怎么能让上路呢?!
所以这就出现了一个道德困境。
人在现场不管做出怎样的临时反应,我们都认为是正常的。
可是人工智能不管事先怎么设定,我们都觉得别扭。
看到了不,这就是一种没有解的博弈,双输。
或许等到那个情景发生时,就知道怎么办了。。。
如果有帮助,别忘了评分 :
这位鱼油,如果喜欢本系列帖子,请订阅 专辑☞( 传送门)( 不喜欢更要订阅 ) |
评分
-
查看全部评分
|