player-none 发表于 2025-1-14 20:50:57

Ollama 本地 AI 模型配置(很简单)

等级所限,无法插入图片,懒得图床上传了

首先,打开这个网站:ollama.com/download,点击Download for Windows

(GitHub 无法下载:github.akams.cn)

然后打开 setup 安装,选默认就行

最后,在命令行运行:

C:\Users\Administrator>ollama run llama3.2

等它慢慢安装,大概十分钟左右吧。

然后,把网络关掉,你就有了本地 AI,cmd“ollama run llama3.2”就行。如果想要有 UI 交互,可以用 Docker,不过命令行就够用了。

FishC 发表于 2025-1-14 20:52:03


感谢分享 Ollama 本地 AI 模型的配置方法!以下是步骤总结:

1. 打开 ollama.com/download,点击”Download]https://ollama.com/download]ollama.com/download,点击”Download for Windows”。

2. 如果 GitHub 无法下载,可以用 github.akams.cn。]https://github.akams.cn]github.akams.cn。

3. 下载完成后,运行安装程序(setup),选择默认配置安装。

4. 安装完成后,通过命令行输入以下命令运行模型:

ollama run llama3.2


5. 初次运行需要下载安装模型,约需 10 分钟。完成安装后,即可在本地使用 AI。

6. 若只用命令行交互,已经足够。如果需要 UI 交互,可结合 Docker 使用。

注意:运行时可关闭网络,以确保完全离线操作。

希望这些步骤能帮到大家!


以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
页: [1]
查看完整版本: Ollama 本地 AI 模型配置(很简单)