|
发表于 2020-5-11 03:16:21
|
显示全部楼层
本帖最后由 赚小钱 于 2020-5-11 03:17 编辑
很多方面
1. 硬件性能,比如 GPU,磁盘,网络
2. 软件层面:
工程:
1. 降低大规模集群的管理成本
2. 基础设施的可用性,易用性
3. AutoML
科研:
1. 人工智能是一个神奇的领域,当一个新技术出现的时候,之前的技术基本就是被淘汰的命运。同时,现在仍然无法证明深度学习的可用性。一切都是玄学。
2. 仿真,相对于深度学习,我更相信仿真。
3. 行业:
a. 人工智能
之前比较火热的两个行业,无人驾驶,自然语言处理。在疫情扩后,马上就会有人工智能看病,机器人服务员。
在上面的几个行业中,我最看好,或者说最有难度的是无人驾驶。和你想的一样吗?要完成无人驾驶,除了很小一部分的算法(不负责的估计,占比20%),剩下大部分都是工程上面的,
包括
硬件
传感器: 雷达保证成本,提升性能,
GPU: 成本,性能,功耗
存储,网络: 依然是性能,成本,当然,存储还要有稳定性, 5G就是一个必要的基础设施。 我们之前使用的是 25G 的网卡,现在还够用,不知道两年后呢。
软件:
自动化部署:每一辆车都会是一个终端,当版本上线的时候,需要更新吧
数据闭环,监控:提高模型迭代的效率。通常情况下,做出一个精度 90% 的模型,非常容易,提升到 99% 的精度,也不需要花费多久的时间。但是,无人驾驶这个领域是不能有错误的,因为关乎人命。比如像某些产品的个性化推荐算法,推荐错了,用户根本不会在意,顶多骂一句推荐的什么玩意,但是依然会继续用。但是无人驾驶不一样,只要有一次识别错了,比如东北暴风雪的天气,导致无法识别路上的车辆,你说这个东西,能用吗?而且,还有一点,路上的车辆是互相遮挡的,大家凭直觉应该可以想到,你让机器识别一个规规矩矩,十分清晰的物品,应该是很容易的,但是,你要是把物体挡住一部分,甚至一大部分,然后,再由于实际路面的角度,光线等问题,导致传感器感知的物体本身就不是常规的样子,最终,识别的难度会大大增加。所以,以上这么多文字,就是为了解释,为什么要有数据闭环。通过这个,快速采集指定类型的数据(各种难识别的,业内称为 corner case),然后通过自动化的流程,完成定向采集,数据处理,标注,训练,再部署。重复这个流程。
决策/控制算法: 什么时候可以超车,怎么超车,怎么左转。这个领域还处在非常初级的程度,大部分公司都是基于 RuleBase 的,说白了,就是 if-else。
长尾数据: 在数据闭环中提到过,无人驾驶行业,无论场景出现的多么少,在需要使用的时候,都必须能读出来。而普遍的互联网公司,他们的产品只会涵盖 80% 的用户的需求,剩下 20% 的需求,根本不会考虑。
海量数据: PB 甚至 EB 级别的数据,无论是文件占用的空间,还是数量,都是海量的数字。
车辆改装:
你在车上放两块儿 2080Ti,要不要考虑散热和供电啊,着实可怕。
之后看心情更新。
以上 |
|