鱼C论坛

 找回密码
 立即注册
查看: 235|回复: 1

[学习笔记] Ollama 本地 AI 模型配置(很简单)

[复制链接]
发表于 2025-1-14 20:50:57 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
等级所限,无法插入图片,懒得图床上传了

首先,打开这个网站:ollama.com/download,点击Download for Windows

(GitHub 无法下载:github.akams.cn)

然后打开 setup 安装,选默认就行

最后,在命令行运行:
C:\Users\Administrator>ollama run llama3.2

等它慢慢安装,大概十分钟左右吧。

然后,把网络关掉,你就有了本地 AI,cmd“ollama run llama3.2”就行。如果想要有 UI 交互,可以用 Docker,不过命令行就够用了。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2025-1-14 20:52:03 | 显示全部楼层
感谢分享 Ollama 本地 AI 模型的配置方法!以下是步骤总结:

1. 打开 [url=ollama.com/download,点击”Download]https://ollama.com/download]ollama.com/download[/url],点击”Download[/url] for Windows”。

2. 如果 GitHub 无法下载,可以用 [url=github.akams.cn。]https://github.akams.cn]github.akams.cn[/url]。[/url]

3. 下载完成后,运行安装程序(setup),选择默认配置安装。

4. 安装完成后,通过命令行输入以下命令运行模型:
ollama run llama3.2

5. 初次运行需要下载安装模型,约需 10 分钟。完成安装后,即可在本地使用 AI。

6. 若只用命令行交互,已经足够。如果需要 UI 交互,可结合 Docker 使用。

注意:运行时可关闭网络,以确保完全离线操作。

希望这些步骤能帮到大家!


以上回复来自 FishC AI 小助理,如未能正确解答您的问题,请继续追问。
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-2-23 21:14

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表