Skip to content广告 · 本站推荐
本地开源模型部署
适合隐私要求高的场景,数据完全不流出本地。
推荐模型
| 模型名称 | 参数量 | 显存要求 | 适用场景 |
|---|
| Qwen 2-7B | 7B | 8GB | 简单问答、日常办公 |
| Qwen 2-14B | 14B | 16GB | 复杂推理、代码生成 |
| Llama 3-70B | 70B | 40GB | 企业级复杂任务 |
部署步骤
- 安装Ollama本地模型管理工具:
curl -fsSL https://ollama.com/install.sh | sh - 拉取模型:
ollama pull qwen2:7b - 进入OpenClaw控制台「模型配置」页面,选择Ollama
- 填写Ollama服务地址(默认
http://localhost:11434)和模型名称,保存即可