不二如是 发表于 2018-9-17 14:48:58

013 ★ 自动驾驶困境的出路 |【道德博弈的解药】

本帖最后由 不二如是 于 2018-9-17 14:48 编辑

上一讲我们知道数据谁用的好就归谁,今天来解决在自动驾驶的困境 无法解决的问题。



往往换一个角度,问题的答案就出来了,这也是博弈中常用的一个技巧,转换思维纬度。

技术是我们人类的亲生儿子,我们生出它来,是要帮人类干这干那的。

发明了汽车为了提升速度,不是为了不需要人们的双腿。

发明了AI下围棋为了更好的游戏,不是为了碾压人类智商。

发明了人工智能为了解决大数据处理问题,不是为了取代人类。

技术会反过来改造人类本身,不要惊慌,觉得随便一个技术怎能轻易取代我们这么造作的人类。

无论技术怎么发展,关键时刻的决定权可能还是要由人来行使。

举个例子,我们都知道,汽车自动驾驶技术的最终成熟,只是时间问题了。

现在最大的障碍不是技术问题,而是伦理问题。

最典型的就是所谓的“电车难题”。



简单温习一下:
**** Hidden Message *****

撞一个人?

谁告诉你一个人的生命价值就低于五个人呢?

这就是伦理难题,生命的价值怎么能用数字来衡量呢?

还有,左边是一个乞丐,右边是一个科学家?

你说撞谁?

谁告诉你乞丐的生命价值就低于科学家呢?

你看,这还是一个伦理难题。

还有,优选保护行人还是优先保护车内的人?

等等,这些选项,你让一个机器怎么决策呢?



解决方案

原来这些伦理难题,之所以不是问题,是因为我们假设驾驶者是人,是有自由意志的,是可以承担后果的。

汽车撞人了,是驾驶员要赔钱或者坐牢。

但是如果驾车的是机器,没有一个可以对自己行为承担后果的具体的人了,那么临时决策的难题就变成了整个人类平常要面对的伦理难题。

按过去的理解,这些问题不解决,自动驾驶汽车是没有办法上路的。

那这些话题,有解吗?

放心,再争论一万年也不会有解的。

自动驾驶汽车的厂家不会这么傻的,把这个烫手山芋放在自己手里,一定会给这些问题编程建模。

他们会把这些程序设计出来,让驾驶者自己选的。

你买了自动驾驶汽车对吧?

好,在开动之前,请选择。

如果车祸马上就要发生,选项一,优先保护自己,选项二,优先保护行人。

选了之后,你自己作为选择者,虽然具体的车祸时你没有选择,但是之前你选择了,你仍然要对这个选择的后果负责任。

这个例子在告诉我们什么?

本质上,选择仍然是人做出来的。

我们人性中的残忍和善良,脆弱和坚强这些品质只不过被技术放大了。

也许未来,并不是技术在替代人类承担责任。

未来,也许是人类要在无比强大的技术工具后面承担更重的道德责任。

你看,人不会没有用处。

只是要承担更重的责任。

这就是人永远可以发明并使用技术,而责任只能由使用的人来承担。

而谁能承担责任,谁就是“主人”。


如果有帮助,别忘了评分{:10_281:} :

http://xxx.fishc.com/forum/201709/19/094516hku92k2g4kefz8ms.gif

这位鱼油,如果喜欢本系列帖子,请订阅 专辑☞(传送门)(不喜欢更要订阅{:10_278:} )

2素儿 发表于 2018-9-17 15:07:23

一个游戏能反映玩家方方面面。

Archiver 发表于 2018-9-17 18:37:11

看看

萌·小杨 发表于 2019-7-10 19:43:05

支持一下

大风包子 发表于 2020-3-11 08:52:39

我知道

DavidCT 发表于 2020-3-11 10:12:35

确实是个道德问题

zhiweng07 发表于 2020-8-2 07:25:54

开动之前,请选择。
如果车祸马上就要发生,选项一,优先保护自己,选项二,优先保护行人。
矛盾转移了。

my少年时代 发表于 2020-8-3 09:42:01

kk

my少年时代 发表于 2020-8-3 09:47:15

对于一个理想的价值判断而言,人的生命的价值是∞,一个人的生命价值∞,五个∞之和仍然是∞。即使加入他们身份地位等其他有限的影响因素,他们仍没办法作比较。
当然在现实生活中这么讲肯定很蠢,但是一旦放到事前的理性层面上思考,这个问题就变得无解了。

影月5 发表于 2020-11-23 11:51:30

浏览哈
页: [1]
查看完整版本: 013 ★ 自动驾驶困境的出路 |【道德博弈的解药】