拉取并运行 Ollama Docker 镜像
使用以下命令从 Docker Hub 拉取 Ollama 镜像并运行容器:
docker run -d -p 11434:11434 --name ollama ollama/ollama
-d
:以守护进程模式运行容器,即让容器在后台运行。-p 11434:11434
:将容器内部的 11434 端口映射到宿主机的 11434 端口,这样你就可以通过宿主机的 11434 端口访问 Ollama 服务。--name ollama
:为容器指定一个名称,方便后续管理。ollama/ollama
:指定要运行的 Docker 镜像。
下载 DeepSeek 模型
Ollama 支持加载多种模型,包括 DeepSeek。你可以使用以下命令下载 DeepSeek 模型:
docker exec ollama ollama pull deepseek-coder:33b-instruct
更具自己的配置选择模型版本: 点击查看对应版本
使用 DeepSeek 模型进行推理
你可以使用 Ollama 的 API 或命令行工具与加载的 DeepSeek 模型进行交互。
docker exec ollama ollama run deepseek-coder:33b-instruct "写一个简单的 Python 函数,用于计算两个数的和。"
到此已经部署完成!!