ollama配置本地模型¶
ollama 部署 gguf 模型¶
对于老电脑,需要手动编译llama.cpp项目,来支持自己的gpu(如果gpu太老,建议不要试了,浪费时间,换电脑是最好的办法)
对于新电脑按照官方文档安装即可
编辑llama.cpp项目中的一些问题
windows10电脑直接将 vs编辑工具包,且在安装vs工具时,一定要安装上cmake相关联的组件,要不然构建llama.cpp时(使用cmake构建),会找不到vs相关配置
使用 openai 类型api访问ollama部署的模型¶
import openai
client = openai.OpenAI(
base_url="http://localhost:11434/v1",
api_key="ollama" # 实际上不需要真实的API Key
)
# role: system assistant user
response = client.chat.completions.create(
model="qwen2.5", # 使用你本地的ollama模型名称
messages=[
{"role": "system", "content": "你是一个有用的助手。"},
{"role": "user", "content": "你好"}
]
)
print(response.choices[0].message.content)