- 验证模型是否可用
>
ollama run deepseek-v3 "你好,DeepSeek-V3!"
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
步骤 3:安装 Open WebUI
- 拉取 Open WebUI Docker 镜像
- Open WebUI 是一个用于与大模型交互的 Web 界面。使用以下命令拉取 Open WebUI 镜像:
>
docker pull ghcr.io/open-webui/open-webui:main
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
- 运行 Open WebUI 容器
- 使用以下命令启动 Open WebUI 容器,并连接到 Ollama:
>
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
-d
:后台运行容器。-p 3000:8080
:将容器的 8080 端口映射到主机的 3000 端口。--add-host=host.docker.internal:host-gateway
:添加主机映射,使容器能够访问主机服务。-v open-webui:/app/backend/data
:将 Open WebUI 的数据目录挂载到 Docker 卷 open-webui
。--name open-webui
:为容器命名。--restart always
:设置容器始终自动重启。ghcr.io/open-webui/open-webui:main
:使用的 Docker 镜像。
- 验证 Open WebUI 是否运行
- 打开浏览器,访问
http://localhost:3000
。 - 如果看到 Open WebUI 的登录界面,说明运行成功。
步骤 4:通过 Open WebUI 使用 DeepSeek-V3 大模型
- 登录 Open WebUI
- 首次访问 Open WebUI 时,需要创建一个账户。
- 输入用户名和密码,完成注册并登录。
- 连接到 Ollama
- 在 Open WebUI 界面中,进入设置页面。
- 在“Ollama API URL”字段中输入
http://host.docker.internal:11434
,然后保存设置。
- 选择 DeepSeek-V3 模型
- 在 Open WebUI 界面中,找到模型选择菜单。
- 选择
DeepSeek-V3
作为当前使用的模型。
- 与模型交互
>
你好,DeepSeek-V3!你能帮我写一段代码吗?
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
步骤 5:停止和删除容器
- 停止容器
>
docker stop open-webui
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
- 删除容器
>
docker rm open-webui
class="hljs-button signin active" data-title="登录复制" data-report-click="{"spm":"1001.2101.3001.4334"}" onclick="hljs.signin(event)">
总结
通过以上步骤,你已经在 Windows 系统上成功安装 Docker 和 Ollama,下载了 DeepSeek-V3 模型,并通过 Open WebUI 提供了一个用户友好的 Web 界面来与模型交互。你可以通过浏览器访问 http://localhost:3000
,轻松使用 DeepSeek-V3 大模型。如果在安装或部署过程中遇到问题,可以参考 Docker、Ollama 和 Open WebUI 的官方文档,或寻求社区的帮助。
data-report-view="{"mod":"1585297308_001","spm":"1001.2101.3001.6548","dest":"https://blog.csdn.net/cnzzs/article/details/145361538","extend1":"pc","ab":"new"}">>
评论记录:
回复评论: