安装ollama

这里使用的是1panel的插件商店安装ollama,在这之前,docker环境配置nvidia container toolkit,让容器无法访问宿主机的 GPU 资源。

# 检查是否支持 nvidia
$ nvidia-smi
Mon Dec 29 14:49:09 2025       
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.105.08             Driver Version: 580.105.08     CUDA Version: 13.0     |
+-----------------------------------------+------------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id          Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |           Memory-Usage | GPU-Util  Compute M. |
|                                         |                        |               MIG M. |
|=========================================+========================+======================|
|   0  NVIDIA RTX A6000               On  |   00001AA9:00:00.0 Off |                  Off |
| 30%   37C    P8             14W /  300W |   10572MiB /  49140MiB |      0%      Default |
|                                         |                        |                  N/A |
+-----------------------------------------+------------------------+----------------------+

+-----------------------------------------------------------------------------------------+
| Processes:                                                                              |
|  GPU   GI   CI              PID   Type   Process name                        GPU Memory |
|        ID   ID                                                               Usage      |
|=========================================================================================|
|    0   N/A  N/A           10218      C   python                                10562MiB |
+-----------------------------------------------------------------------------------------+
# 安装 NVIDIA Container Toolkit/ ubuntu
# 1. 添加NVIDIA源
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/ubuntu22.04/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

# 2. 更新并安装
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
# 验证 Docker 是否能识别 GPU
docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi

在1panel中,安装ollama时,勾选“启用GPU支持”。


安装成功后,安装运行的模型。A6000 显存 49GB,这里安装的是 Qwen2.5-14B 模型。
中文优先 / 日常使用:选 Qwen2.5-14B(速度快、中文适配度拉满,A6000 运行无压力)
A6000 支持多种模型,具体可以参考 NVIDIA 官方文档
在面板中安装qwen2.5-14b模型。

安装完成后,点击运行

安装ollama-webui

ollama-webui 是一个基于ollama的web界面,这里使用1panel的插件商店安装ollama-webui。
如果网络延迟,使用docker proxy 安装。

# 1. 输入原始镜像地址获取命令, ghcr.io/open-webui/open-webui:0.6.43
# 2.代理拉取镜像
docker pull ghcr.dockerproxy.net/open-webui/open-webui:0.6.43
# 3.重命名镜像
docker tag ghcr.dockerproxy.net/open-webui/open-webui:0.6.43 ghcr.io/open-webui/open-webui:0.6.43
# 4.删除代理镜像
docker rmi ghcr.dockerproxy.net/open-webui/open-webui:0.6.43

webui docker安装完成后,会自动请求https://huggingface.co/ ,应该在环境变量中指定中文镜像站点。

OLLAMA_API_BASE_URL=http://10.115.8.58:11434  # 10.115.8.58 是ollama本地的IP地址
HUGGINGFACE_MIRROR=https://hf-mirror.com  # 中文镜像站点
HF_ENDPOINT=https://hf-mirror.com  # 中文镜像站点
--add-host=host.docker.internal:host-gateway  # 允许容器访问宿主机的网络

部署完成后,访问3000端口,即可打开webui界面。

安装n8n

n8n是一个基于node.js的工作流工具,这里使用1panel的插件商店安装n8n。