|
马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 不二如是 于 2018-9-17 14:48 编辑
上一讲我们知道数据谁用的好就归谁,今天来解决在自动驾驶的困境 无法解决的问题。
往往换一个角度,问题的答案就出来了,这也是博弈中常用的一个技巧,转换思维纬度。
技术是我们人类的亲生儿子,我们生出它来,是要帮人类干这干那的。
发明了汽车为了提升速度,不是为了不需要人们的双腿。
发明了AI下围棋为了更好的游戏,不是为了碾压人类智商。
发明了人工智能为了解决大数据处理问题,不是为了取代人类。
技术会反过来改造人类本身,不要惊慌,觉得随便一个技术怎能轻易取代我们这么造作的人类。
无论技术怎么发展,关键时刻的决定权可能还是要由人来行使。
举个例子,我们都知道,汽车自动驾驶技术的最终成熟,只是时间问题了。
现在最大的障碍不是技术问题,而是伦理问题。
最典型的就是所谓的“电车难题”。
简单温习一下:
撞一个人?
谁告诉你一个人的生命价值就低于五个人呢?
这就是伦理难题,生命的价值怎么能用数字来衡量呢?
还有,左边是一个乞丐,右边是一个科学家?
你说撞谁?
谁告诉你乞丐的生命价值就低于科学家呢?
你看,这还是一个伦理难题。
还有,优选保护行人还是优先保护车内的人?
等等,这些选项,你让一个机器怎么决策呢?
解决方案
原来这些伦理难题,之所以不是问题,是因为我们假设驾驶者是人,是有自由意志的,是可以承担后果的。
汽车撞人了,是驾驶员要赔钱或者坐牢。
但是如果驾车的是机器,没有一个可以对自己行为承担后果的具体的人了,那么临时决策的难题就变成了整个人类平常要面对的伦理难题。
按过去的理解,这些问题不解决,自动驾驶汽车是没有办法上路的。
那这些话题,有解吗?
放心,再争论一万年也不会有解的。
自动驾驶汽车的厂家不会这么傻的,把这个烫手山芋放在自己手里,一定会给这些问题编程建模。
他们会把这些程序设计出来,让驾驶者自己选的。
你买了自动驾驶汽车对吧?
好,在开动之前,请选择。
如果车祸马上就要发生,选项一,优先保护自己,选项二,优先保护行人。
选了之后,你自己作为选择者,虽然具体的车祸时你没有选择,但是之前你选择了,你仍然要对这个选择的后果负责任。
这个例子在告诉我们什么?
本质上,选择仍然是人做出来的。
我们人性中的残忍和善良,脆弱和坚强这些品质只不过被技术放大了。
也许未来,并不是技术在替代人类承担责任。
未来,也许是人类要在无比强大的技术工具后面承担更重的道德责任。
你看,人不会没有用处。
只是要承担更重的责任。
这就是人永远可以发明并使用技术,而责任只能由使用的人来承担。
而谁能承担责任,谁就是“主人”。
如果有帮助,别忘了评分 :
这位鱼油,如果喜欢本系列帖子,请订阅 专辑☞( 传送门)( 不喜欢更要订阅 ) |
|