DeepSeek R1 本地环境搭建(免费+本地隐私)|Mac 32GB 足以
先说结论:32g 内存 m1 pro 实测 14b 可用~
DeepSeek R1不光开源,还把一套蒸馏全家桶放出来了。
关于 R1 的介绍可以看这期视频:
https://www.bilibili.com/video/BV1ddf4YxEuZ
记录一下本地部署,真的很方便!
1. 安装Ollama
官网下载安装即可。
(传送门)
2. 下载对应模型
最小的是1.5b,适合尝鲜:
ollama run deepseek-r1:1.5b
建议装 14b:
ollama run deepseek-r1:14b
超大杯70b:
ollama run deepseek-r1:70b
3. 设置 chatbox
chatbox 是很不错的 LLM 图形化界面,非常方便。
在设置里面模型 provider 选择 OLLMA 然后选择相应模型就可以用了!
注意默认 temperature 是 0.7,但是官方建议是 0.5-0.7,所以可以稍微调低一点。
这样就可以开始本地用了:
生成速度还可以,基本任务质量还是不错的,复杂任务感觉还是没有 o1 强但是胜在**** Hidden Message ***** 为什么它火了 需要英伟达显卡吗?{:5_109:} Mac 系统吗?Windows不能用? 谁能给我个32G的MAC~~~ 某一个“天” 发表于 2025-1-25 21:56
为什么它火了
因为值得阿,R1各项评测数据遥遥领先 感谢分享! 感谢分享!新手学习中 感谢分享!
页:
[1]