鱼C论坛

 找回密码
 立即注册

使用python得到ollama运行LLM的单次输出

已有 11 次阅读2025-3-13 15:59 |个人分类:LLM

先用ollama运行LLM,再运行以下python程序

import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={
        "model": "deepseek-r1:7b",
        "prompt": "你好",
        "stream": False
    }
)


路过

鸡蛋

鲜花

握手

雷人

评论 (0 个评论)

facelist

您需要登录后才可以评论 登录 | 立即注册

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2025-4-4 12:13

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

返回顶部