Ollama 本地 AI 模型配置(很简单)
等级所限,无法插入图片,懒得图床上传了首先,打开这个网站:ollama.com/download,点击Download for Windows
(GitHub 无法下载:github.akams.cn)
然后打开 setup 安装,选默认就行
最后,在命令行运行:
C:\Users\Administrator>ollama run llama3.2
等它慢慢安装,大概十分钟左右吧。
然后,把网络关掉,你就有了本地 AI,cmd“ollama run llama3.2”就行。如果想要有 UI 交互,可以用 Docker,不过命令行就够用了。
感谢分享 Ollama 本地 AI 模型的配置方法!以下是步骤总结:
1. 打开 ollama.com/download,点击”Download]https://ollama.com/download]ollama.com/download,点击”Download for Windows”。
2. 如果 GitHub 无法下载,可以用 github.akams.cn。]https://github.akams.cn]github.akams.cn。
3. 下载完成后,运行安装程序(setup),选择默认配置安装。
4. 安装完成后,通过命令行输入以下命令运行模型:
ollama run llama3.2
5. 初次运行需要下载安装模型,约需 10 分钟。完成安装后,即可在本地使用 AI。
6. 若只用命令行交互,已经足够。如果需要 UI 交互,可结合 Docker 使用。
注意:运行时可关闭网络,以确保完全离线操作。
希望这些步骤能帮到大家!
以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
页:
[1]