ollama配置本地模型

ollama 部署 gguf 模型

  • 对于老电脑,需要手动编译llama.cpp项目,来支持自己的gpu(如果gpu太老,建议不要试了,浪费时间,换电脑是最好的办法)

  • 对于新电脑按照官方文档安装即可

  • 编辑llama.cpp项目中的一些问题

  1. windows10电脑直接将 vs编辑工具包,且在安装vs工具时,一定要安装上cmake相关联的组件,要不然构建llama.cpp时(使用cmake构建),会找不到vs相关配置

使用 openai 类型api访问ollama部署的模型

import openai

client = openai.OpenAI(
    base_url="http://localhost:11434/v1",
    api_key="ollama" # 实际上不需要真实的API Key
)

# role: system assistant user
response = client.chat.completions.create(
    model="qwen2.5", # 使用你本地的ollama模型名称
    messages=[
        {"role": "system", "content": "你是一个有用的助手。"},
        {"role": "user", "content": "你好"}
    ]
)
print(response.choices[0].message.content)