Skip to content
广告 · 本站推荐广告

本地开源模型部署

适合隐私要求高的场景,数据完全不流出本地。

推荐模型

模型名称参数量显存要求适用场景
Qwen 2-7B7B8GB简单问答、日常办公
Qwen 2-14B14B16GB复杂推理、代码生成
Llama 3-70B70B40GB企业级复杂任务

部署步骤

  1. 安装Ollama本地模型管理工具:curl -fsSL https://ollama.com/install.sh | sh
  2. 拉取模型:ollama pull qwen2:7b
  3. 进入OpenClaw控制台「模型配置」页面,选择Ollama
  4. 填写Ollama服务地址(默认 http://localhost:11434)和模型名称,保存即可

最后更新:

基于MIT协议开源 | 内容翻译自 官方文档,同步更新