Ollama 环境安装:Ollama 在 Docker 环境下的运行及设置

https://blog.csdn.net/weixin_62798503/article/details/140658151

Ollama 现已提供官方 Docker 镜像

Ollama 现已作为官方 Docker 赞助的开源镜像提供,这使得使用 Docker 容器启动和运行大型语言模型变得更加简单。

使用 Ollama,您与大型语言模型的所有交互都在本地进行,而无需将私人数据发送给第三方服务。

在 Mac 上

Ollama 使用 GPU 加速来运行模型。它提供了一个简单的 CLI 以及一个用于与您的应用程序交互的 REST API。

要开始,只需下载并安装 Ollama。

我们建议在 macOS 上同时运行 Ollama 和 Docker Desktop,以便 Ollama 能够为模型启用 GPU 加速。

在 Linux 上

Ollama 可以在 Nvidia GPU 的 Docker 容器内使用 GPU 加速运行。

要开始使用 Docker 映像,请使用以下命令。

仅 CPU

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Nvidia GPU

安装 NVIDIA 容器工具包⁠。

使用 Apt 安装

配置存储库

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update

安装 NVIDIA Container Toolkit 软件包

sudo apt-get install -y nvidia-container-toolkit

使用 Yum 或 Dnf 安装

配置存储库

curl -s -L https://nvidia.github.io/libnvidia-container/stable/rpm/nvidia-container-toolkit.repo \
    | sudo tee /etc/yum.repos.d/nvidia-container-toolkit.repo

安装 NVIDIA Container Toolkit 软件包

sudo yum install -y nvidia-container-toolkit

配置 Docker 以使用 Nvidia 驱动程序

sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

启动容器

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

AMD GPU

要使用带有 AMD GPU 的 Docker 运行 Ollama,请使用标签rocm和以下命令:

docker run -d --device /dev/kfd --device /dev/dri -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama:rocm

运行模型

现在您可以在容器内运行像 Qwen2 这样的模型。

docker exec -it ollama ollama run qwen2:0.5b

您可以在 Ollama 库 中找到更多模型。

参考资料:

作者:Jeebiz  创建时间:2024-06-16 16:44
最后编辑:Jeebiz  更新时间:2024-11-21 01:00