本文介绍两种部署ollama webui的方法:使用node.js和使用docker。
一、Node.js部署
安装Node.js: 从官网下载并安装Node.js: https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e 安装完成后,建议设置npm镜像源,例如腾讯云镜像:npm config set registry http://mirrors.cloud.tencent.com/npm/
克隆仓库: 使用Git克隆Ollama WebUI Lite仓库:git clone https://www.php.cn/link/5bd7ddf87f22021a5f5d682ce5f93ad6.git,然后进入仓库目录:cd ollama-webui-lite
安装依赖: 运行 npm ci 安装项目依赖。
运行: 执行 npm run dev 启动应用。
访问 http://localhost:3000/ 即可使用。
二、Docker部署 (Windows)
本节介绍在Windows系统下使用Docker部署Ollama WebUI。 请确保已安装Ollama并完成配置。
拉取镜像并运行: 在终端执行以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
登录后复制
运行成功后,终端会显示容器ID。 在Docker的容器列表中可以看到 open-webui 容器。
访问应用: 访问 http://localhost:3000/ 或Docker分配的端口。
注册并使用: 注册账号后,选择模型即可开始对话。
更多信息请参考: https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e 和 https://www.php.cn/link/c273a867d4f81ad1055432bd598e114e
以上就是OpenWebUI 部署 Ollama 可视化对话界面的详细内容,更多请关注【创想鸟】其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至253000106@qq.com举报,一经查实,本站将立刻删除。
发布者:PHP中文网,转转请注明出处:https://www.chuangxiangniao.com/p/3272479.html