ubuntu 安装ollama,n8n,ollama-webui
安装ollama
这里使用的是1panel的插件商店安装ollama,在这之前,docker环境配置nvidia container toolkit,让容器无法访问宿主机的 GPU 资源。
# 检查是否支持 nvidia
$ nvidia-smi
Mon Dec 29 14:49:09 2025
+-----------------------------------------------------------------------------------------+
| NVIDIA-SMI 580.105.08 Driver Version: 580.105.08 CUDA Version: 13.0 |
+-----------------------------------------+------------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+========================+======================|
| 0 NVIDIA RTX A6000 On | 00001AA9:00:00.0 Off | Off |
| 30% 37C P8 14W / 300W | 10572MiB / 49140MiB | 0% Default |
| | | N/A |
+-----------------------------------------+------------------------+----------------------+
+-----------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=========================================================================================|
| 0 N/A N/A 10218 C python 10562MiB |
+-----------------------------------------------------------------------------------------+
# 安装 NVIDIA Container Toolkit/ ubuntu
# 1. 添加NVIDIA源
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/ubuntu22.04/nvidia-container-toolkit.list | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
# 2. 更新并安装
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
# 验证 Docker 是否能识别 GPU
docker run --rm --gpus all nvidia/cuda:12.0.0-base-ubuntu22.04 nvidia-smi在1panel中,安装ollama时,勾选“启用GPU支持”。
安装成功后,安装运行的模型。A6000 显存 49GB,这里安装的是 Qwen2.5-14B 模型。
中文优先 / 日常使用:选 Qwen2.5-14B(速度快、中文适配度拉满,A6000 运行无压力)
A6000 支持多种模型,具体可以参考 NVIDIA 官方文档。
在面板中安装qwen2.5-14b模型。
安装完成后,点击运行
安装ollama-webui
ollama-webui 是一个基于ollama的web界面,这里使用1panel的插件商店安装ollama-webui。
如果网络延迟,使用docker proxy 安装。
# 1. 输入原始镜像地址获取命令, ghcr.io/open-webui/open-webui:0.6.43
# 2.代理拉取镜像
docker pull ghcr.dockerproxy.net/open-webui/open-webui:0.6.43
# 3.重命名镜像
docker tag ghcr.dockerproxy.net/open-webui/open-webui:0.6.43 ghcr.io/open-webui/open-webui:0.6.43
# 4.删除代理镜像
docker rmi ghcr.dockerproxy.net/open-webui/open-webui:0.6.43webui docker安装完成后,会自动请求https://huggingface.co/ ,应该在环境变量中指定中文镜像站点。
OLLAMA_API_BASE_URL=http://10.115.8.58:11434 # 10.115.8.58 是ollama本地的IP地址
HUGGINGFACE_MIRROR=https://hf-mirror.com # 中文镜像站点
HF_ENDPOINT=https://hf-mirror.com # 中文镜像站点
--add-host=host.docker.internal:host-gateway # 允许容器访问宿主机的网络部署完成后,访问3000端口,即可打开webui界面。
安装n8n
n8n是一个基于node.js的工作流工具,这里使用1panel的插件商店安装n8n。
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 WenYan Blog!
评论









