不二如是 发表于 2018-5-24 09:37:11

007 ☆ 自动驾驶的困境 |【AI道德博弈】

本帖最后由 不二如是 于 2018-6-10 11:06 编辑



上一讲我们搞定了赌徒博弈,本次来看一个很时髦的AI道德博弈。

在开始前,请先为下面案例中的小不二做出选择,原景重现:
小不二正在以很快的速度开车,突然发现前边有一群小学生在马路上打闹。

要避让这些小学生,你就会撞到路边的建筑物墙上。

而如果撞墙,你的生命安全就面临危险。

请问在这种情况下,小不二是选择撞墙还是选择撞向小学生呢?



道德困境



有良知的人,比如本人{:10_297:} 。。。

肯定是宁可自己面对生命危险,也不能撞小学生。

好。

那如果汽车厂商告诉你:
我们这个车就是讲道德的,我们的自动驾驶系统在这种情况下一定会首先确保行人的安全。

请问这样的车鱼油会买吗?

反正,本人是不会买了。

为啥呢?

我牺牲我自己,是我自己的决定。

我不能让汽车替我做决定!

万一我临时不想死怎么办?

万一汽车判断错了怎么办?

我不想开一辆在某种情况下会牺牲我的车。

这就是道德规范:
**** Hidden Message *****



道德规范

现在有很多公司正在研究自动驾驶的道德规范,Google 甚至还专门聘请了哲学家。

但是没有研究出来什么令人满意的方案。



奔驰公司已经宣布:
他们对自动驾驶汽车的设定是优先保证自己车里司机和乘客的安全。

在前面那种情况下,奔驰的车会果断撞向小学生。

那你说这不是杀手汽车吗?

这种汽车怎么能让上路呢?!

所以这就出现了一个道德困境。

人在现场不管做出怎样的临时反应,我们都认为是正常的。

可是人工智能不管事先怎么设定,我们都觉得别扭。

看到了不,这就是一种没有解的博弈,双输。

或许等到那个情景发生时,就知道怎么办了。。。


如果有帮助,别忘了评分{:10_281:} :

http://xxx.fishc.com/forum/201709/19/094516hku92k2g4kefz8ms.gif

这位鱼油,如果喜欢本系列帖子,请订阅 专辑☞(传送门)(不喜欢更要订阅{:10_278:} )

人造人 发表于 2018-5-29 14:44:59

AI不明白道德的意义,AI只是在无意义的执行罢了
具体在这种情况下AI会如何做,全看程序员如何写代码
如果程序员在这里加入了一些随机元素,那么只有天知道在这种情况下AI会如何做

谁不是天才呢 发表于 2018-5-24 10:24:43

这个问题引人深思啊

猫不理 发表于 2018-5-24 11:53:41

这一瞬间AI跟你说,主人你自己决定,然后你一下没把握住方向盘,自己撞了

yoyodj 发表于 2018-5-24 11:57:46

真是一把没有“握把的刀“

统冠陶瓷 发表于 2018-5-24 14:39:46

看来可以请装甲车出马了{:10_256:}

漂泊信天翁 发表于 2018-5-24 15:39:00

可以让用户自行选择,开车之前设定好,遇到紧急情况按用户设定反应

张云啊张云 发表于 2018-5-24 16:09:37

遇到紧急情况可以选择让客户自己决定是去是留,是生是死……{:10_266:}

swjqwe 发表于 2018-5-25 14:35:05

顶一波

956948018 发表于 2018-5-26 14:22:06

good

三上氻鱼 发表于 2018-5-26 14:30:01

可怕

Sert_My 发表于 2018-5-27 08:16:34

马路上有红绿灯....车子不肯能是个近视眼吧....

lululu_deadline 发表于 2018-5-28 19:03:12

因为最终不知道汽车的判断方式所以也无法判断责任方,是吗

Lio.Zhou 发表于 2018-5-29 12:07:22

开车之前要司机选择模式:1我优先、2别人优先、3谁遵守交通规则谁优先,4造成损失最小的方案优先!

alltolove 发表于 2018-5-29 12:32:33

踩刹车不就完了吗

Yanx 发表于 2018-5-30 13:25:03

了解一下

天下独我意 发表于 2018-6-5 15:28:26

看看

Python.爱好者 发表于 2018-7-23 18:35:57

emmm

Jason108 发表于 2018-7-28 10:35:13

{:5_109:}

诸葛·孔明 发表于 2018-7-31 15:24:32

无论怎么样都要撞的话当然是停车了
页: [1] 2
查看完整版本: 007 ☆ 自动驾驶的困境 |【AI道德博弈】