Ollama + Docker 部署本地大模型

1、操作系统

这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。

使用 LinuxMirrors 安装 Docker

GNU/Linux 更换系统软件源脚本及 Docker 安装与换源脚本

  • GNU/Linux 更换系统软件源
    bash <(curl -sSL https://linuxmirrors.cn/main.sh)
  • Docker 安装与换源
    bash <(curl -sSL https://linuxmirrors.cn/docker.sh)
  • Docker 更换镜像加速器
    bash <(curl -sSL https://linuxmirrors.cn/docker.sh) --only-registry

2、镜像准备

如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间。

2、启动Ollama

① 启动Ollama容器

docker run -itd -v ollama:/root/.ollama -p 11434:11434 –name ollama ollama/ollama
docker run 运行一个新的 Docker 容器

-itd 组合多个选项:

✅ -i(保持标准输入)

✅ -t(分配终端)

✅ -d(后台运行容器)

-v ollama:/root/.ollama 挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。

-p 11434:11434 端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。

–name ollama 指定 容器名称 为 ollama,方便管理和启动。

ollama/ollama 使用的 Docker 镜像,这里是 官方的 Ollama 镜像。

如果是使用GPU运行,则用下面的命令启动

docker run -itd –name ollama –gpus=all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama

② 查看Ollama容器

docker ps
图片

3、拉取Deepseek大模型

① 进入到容器中

docker exec -it ollama /bin/bash
② 拉取模型

ollama pull deepseek-r1:7b
图片
在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型。

官网地址:https://ollama.com/library/deepseek-r1

作者:Jeebiz  创建时间:2025-12-13 09:23
最后编辑:Jeebiz  更新时间:2025-12-13 13:57