英伟达之父「黄仁勋」透露:软件开发方式已经从编程转向机器学习!
过去十年,软件生产范式从“人写规则”的传统编码,系统性转向“用数据训练模型”的机器学习路径。
训练完成后,模型就等同于一个从输入到输出的可组合函数,在推理阶段对未见过的数据做出预测;
在线学习:
https://www.bilibili.com/video/BV19ke4zMEUc
不论是LLM、计算机视觉还是语音理解,本质上都是神经网络在执行这种映射。这个转变常被称为“Software2.0”,强调从手写逻辑迁移到以数据与优化构成的“可学习程序”,并在推理部署时遵循面向GPU的并行计算与内存布局约束。
之所以GPU成为这类软件的“运行时内核”,在于其擅长以大规模并行完成矩阵/张量运算,并配合cuBLAS、cuDNN等库以及专为深度学习设计的TensorCore来加速训练与推理。
许多大模型需要将参数与计算切分到多块GPU以满足显存与吞吐需求;
小模型或低并发场景也能在CPU或单卡上跑通,但在性能、能效与规模上,神经网络总体仍在GPU上表现更佳。
相关硬件—软件协同设计从Volta架构起就系统支持深度学习算子,并在后续架构与工具链中持续演进。
这场迁移也重塑了整个计算栈:
处理器从通用CPU走向以GPU为核心的加速计算,编程模型从手写算法走向以数据训练的模型与高层库,工程流程从“开发软件”扩展为“构建与运营AI”。
行业共识在GTC等场合被反复强调——AI/ML正在“重塑整套计算堆栈”,而加速计算已到拐点,推动从芯片、系统到软件全栈的再发明与标准化部署。
评论区聊聊你的想法吧{:10_330:}
https://xxx.ilovefishc.com/forum/202505/12/120451wiv7viv5iebupbbr.png
>>万能兑换C币许愿池<<
如果有收获,别忘了评分{:10_281:} :
https://xxx.ilovefishc.com/forum/202011/20/092334ggd6inlzfisfrdir.png.thumb.jpg
https://xxx.ilovefishc.com/forum/202505/21/111710rvxgdn90vaub5gag.gif
支持 某一个“天” 发表于 2025-8-23 12:35
支持
{:10_288:}{:13_438:}{:10_288:}{:13_438:}{:10_288:}{:13_438:} 感谢分享 朕又在鱼C学到东西啦!非常满意{:10_275:} 感谢分享 朕又在鱼C学到东西啦!非常满意{:10_275:} 画风华 发表于 2025-8-23 14:40
感谢分享 朕又在鱼C学到东西啦!非常满意
{:13_450:}鱼C有你更精彩{:10_288:} 感谢分享 朕又在鱼C学到东西啦!非常满意{:10_275:}
页:
[1]