一、docker部署ollama同时分别运行gemma3:27b bge-m3 deepseek-r1
wptr33 2025-04-07 20:04 6 浏览
正常情况在一个ollama下运行多个大模型,安装了ollama后,执行ollama run gemma3:27b命令即可部署运行gemma3模型,但是像我希望不断测试各种模型,而且希望不同的模型互相隔离,互不干扰,那么使用docker分别运行不同的模型就很方便。
方案设计
- 多容器隔离:为每个模型分配独立的 Docker 容器,隔离资源(端口、存储、GPU)。
- 持久化存储:每个容器绑定独立目录,保存模型文件和配置。
- 端口映射:为每个容器分配不同的外部端口,避免冲突。
- GPU 资源分配(可选):若使用多 GPU,可为不同容器指定不同 GPU。
- 运维脚本:通过脚本或 docker compose 管理容器生命周期。
模型部署
一、方式一
1、创建目录
如我现在要分别部署deepseek-r1:14b,gemma3:27b,还有嵌入模型bge-m3,我现在先创建三个目录:
mkdir -p ~/ollama_instances/{deepseek-r1-14b,gemma3-12b,gemma3-27b,bge-m3}
2、编写 Docker Compose 文件(推荐)
使用 docker-compose.yml 统一管理多个容器
version: '3.8'
services:
deepseek-r1-14b:
image: ollama/ollama
container_name: deepseek-r1-14b
runtime: nvidia # 关键配置
environment:
- NVIDIA_VISIBLE_DEVICES=all # 允许使用所有 GPU
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1 # 使用 1 块 GPU
capabilities: [gpu]
ports:
- "11434:11434"
volumes:
- ~/ollama_instances/ deepseek-r1-14b:/root/.ollama
restart: unless-stopped
gemma3-27b:
image: ollama/ollama
container_name: gemma3-27b
runtime: nvidia # 关键配置
environment:
- NVIDIA_VISIBLE_DEVICES=all # 允许使用所有 GPU
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 1 # 使用 1 块 GPU
capabilities: [gpu]
ports:
- "11435:11434"
volumes:
- ~/ollama_instances/gemma3-27b:/root/.ollama
restart: unless-stopped
bge-m3:
image: ollama/ollama
container_name: ollama-bge-m3
ports:
- "11436:11434"
volumes:
- ~/ollama_instances/bge-m3:/root/.ollama
restart: unless-stopped
或者在deepseek-r1-14/gemma3-27b等目录下分别创建docker-compose.yml文件
3、启用容器
docker compose up -d #启动
docker compose down #停止
4. 为每个容器初始化模型,进入每个容器安装指定模型:
# 为 deepseek-r1-14b 安装模型
docker exec -it ollama-deepseek-r1-14b ollama run deepseek-r1:14b
# 为 gemma3-12b 安装模型
docker exec -it ollama-gemma3-12b ollama run gemma3:12b
# 其他容器同理
5. 验证服务状态
# 查看所有容器状态
docker ps --filter "name=ollama-*"
# 检查某个容器的日志
docker logs ollama-deepseek-r1-14b
# 测试 API 调用(以 deepseek-r1-14b 为例)
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:14b",
"prompt": "Hello"
}'
6.GPU 资源分配(多 GPU 场景)
若有多块 GPU,可指定容器使用特定 GPU:
# 在 docker-compose.yml 中指定 GPU 索引
environment:
- NVIDIA_VISIBLE_DEVICES=0 # 使用第一块 GPU
7.自定义启动脚本,编写 start_models.sh 实现自动化
#!/bin/bash
# 启动所有容器
docker-compose up -d
# 等待容器初始化
sleep 10
# 为每个容器安装模型
docker exec ollama-deepseek-r1-14b ollama pull deepseek-r1:14b
docker exec ollama-gemma3-12b ollama pull gemma3:12b
# 其他模型同理
8.监控与日志
watch -n 1 "docker stats --no-stream ollama-*"
9.集中日志收集
# 查看所有容器的合并日志
docker-compose logs -f
10.安全加固
限制资源使用
# 在 docker-compose.yml 中添加资源限制
deploy:
resources:
limits:
cpus: '2'
memory: 16G
网络隔离
# 创建私有网络
networks:
ollama-net:
driver: bridge
# 为容器分配网络
services:
deepseek-r1-14b:
networks:
- ollama-net
11.模型管理命令
操作 命令
启动单个容器 docker start ollama-deepseek-r1-14b
停止容器 docker stop ollama-gemma3-12b
更新模型 docker exec ollama-bge-m3 ollama pull bge-m3:latest
删除模型数据 rm -rf ~/ollama_instances/gemma3-27b/*
备份模型 tar -czvf ollama_backup.tar.gz ~/ollama_instances
常见问题:
一、unknown or invalid runtime name: nvidia 错误,通常是由于 NVIDIA Container Toolkit 未正确安装或配置导致
1. 安装 NVIDIA Container Toolkit
# 添加官方仓库密钥
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
# 添加仓库源
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
# 更新并安装工具包
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit
2.配置 Docker 运行时
修改 Docker 配置文件以启用 NVIDIA 运行时:
# 生成或更新 Docker 配置
sudo nvidia-ctk runtime configure --runtime=docker
# 重启 Docker 服务
sudo systemctl restart docker
3.验证运行时配置
检查 Docker 运行时是否包含 nvidia:
docker info | grep -i runtime
4/调整运行命令,不再需要显式指定 --runtime=nvidia,改用 --gpus all 参数:
docker run --rm -it --gpus all nvidia/cuda:12.3.1-base-ubuntu24.04 nvidia-smi
相关推荐
- VPS主机搭建Ghost环境:Nginx Node.js MariaDB
-
Ghost是一款个人博客系统,它是使用Node.js语言和MySQL数据库开发的,同时支持MySQL、MariaDB、SQLite和PostgreSQL。用户可以在支持Node.js的服务器上使用自己...
- centos7飞速搭建zabbix5.0并添加windows、linux监控
-
一、环境zabbix所在服务器系统为centos7,监控的服务器为windows2016和centos7。二、安装zabbix官方安装帮助页面...
- Zabbix5.0安装部署
-
全盘展示运行状态,减轻运维人员的重复性工作量,提高系统排错速度,加速运维知识学习积累。1.png...
- MariaDB10在CentOS7系统下,迁移数据存储位置
-
背景在CentOS7下如果没有默认安装MySQL数据库,可以选择安装MariaDB,最新的版本现在是10可以选择直接yum默认安装的方式yum-yinstallmariadbyum-yi...
- frappe项目安装过程
-
1,准备一台虚拟机,debian12或者ubuntusever22.04.3可以用virtualbox/qemu,或者你的超融合服务器安装一些常用工具和依赖库我这里选择server模式安装,用tab...
- 最新zabbix一键安装脚本(基于centos8)
-
一、环境准备注意:操作系统必须是centos8及以上的,因为我配的安装源是centos8的。并且必须连接互联网,脚本是基于yum安装的!!!...
- ip地址管理之phpIPAM保姆级安装教程 (原创)
-
本教程基于Ubuntu24.04LTS,安装phpIPAM(最新稳定版1.7),使用Apache、PHP8.3和MariaDB,遵循最佳实践,确保安全性和稳定性。一、环境准备1....
- centos7傻瓜式安装搭建zabbix5.0监控服务器教程
-
zabbix([`zaebiks])是一个基于WEB界面的提供分布式系统监视...
- zabbix7.0LTS 保姆级安装教程 小白也能轻松上手安装
-
系统环境:rockylinux9.4(yumupdate升级到最新版本)数据库:mariadb10.5.22第一步:关闭防火墙和selinux使用脚本关闭...
- ubuntu通过下载安装包安装mariadb10.4
-
要在Ubuntu18.04上安装MariaDB10.4.34,用的是那个tar.gz的安装包。步骤大概是:...
- 从0到1:基于 Linux 快速搭建高可用 MariaDB Galera 集群(实战指南)
-
在企业生产环境中,数据库的高可用性至关重要。今天带你从0到1,手把手在Linux系统上快速搭建一个高可用MariaDBGaleraCluster,实现数据库同步复制、故障自动恢复,保障业务...
- Windows 中安装 MariaDB 数据库
-
mariadb在Windows下的安装非常简单,下载程序双击运行就可以了。需要注意:mariadb和MySQL数据库在Windows下默认是不区分大小写的,但是在Linux下是区分...
- SQL执行顺序(SqlServer)
-
学习SQL这么久,如果突然有人问你SQL的执行顺是怎么样的?是不是很多人会觉得C#、JavaScript都是根据编程顺序来处理的,那么SQL也是根据编程顺序来执行的吗?...
- C# - StreamWriter与StreamReader 读写文件 101
-
读写文本文件的方式:1)File静态类的File.ReadAllLines();与File.WriteAllLines();方法进行读写...
- C#中的数组探究与学习
-
C#中的数组一般分为:...
- 一周热门
-
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
因果推断Matching方式实现代码 因果推断模型
-
git pull命令使用实例 git pull--rebase
-
git pull 和git fetch 命令分别有什么作用?二者有什么区别?
-
面试官:git pull是哪两个指令的组合?
-
git 执行pull错误如何撤销 git pull fail
-
git fetch 和git pull 的异同 git中fetch和pull的区别
-
git pull 之后本地代码被覆盖 解决方案
-
还可以这样玩?Git基本原理及各种骚操作,涨知识了
-
git命令之pull git.pull
-
- 最近发表
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mysql max (33)
- vba instr (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)