本地部署RAGflow + Ollama, embedding 模型

本地部署RAGflow + Ollama, embedding 模型
Bin LianRAG 的简介
Quick start | RAGFlow
infiniflow/ragflow: RAGFlow is an open-source RAG (Retrieval-Augmented Generation) engine based on deep document understanding.
部署过程
- 首先从 官网pull 并检查完整性
1
2
3git clone https://github.com/infiniflow/ragflow.git
cd ragflow
git checkout -f v0.16.0
RAGFlow image tag | Image size (GB) | Has embedding models and Python packages? | Stable? |
---|---|---|---|
v0.16.0 |
≈9 | ✔️ | Stable release |
v0.16.0-slim |
≈2 | ❌ | Stable release |
nightly |
≈9 | ✔️ | Unstable nightly build |
nightly-slim |
≈2 | ❌ | Unstable nightly build |
要注意有slim和完整版两个选择,我们选择完整版,默认情况下会pull slim版本,所以进入 docker子目录中找到 .env的隐藏文件,修改RAGFLOW_IMAGE 关键字
1 | RAGFLOW_IMAGE=<默认名字>v0.16.0 (去掉slim) |
接下来直接使用docker-compose下载镜像,(回到主目录)
可参考其他docker compose项目
图床搭建
Linux, ollama 配置,用法,默认路径更改,端口释放
elabFTW 实验室管理系统
Teslamate 的本地配置,爱车健康保驾护航
1 | docker compose -f docker/docker-compose.yml up -d |
我还修改了一下 mino的地址,因为我9000的地址被图床占用了,还是在.env 里找到9000即可,改为9010 deamon的地址也从哦9001 改到9011(同样的原因)
-
1 | lsof -i:9000 |
地址检查命令,此时检查9000端口是否被占用,占用返回应用名和task ID
同样的原因
- 还改了 ragflow的端口80:80 –>7080:80
- 443:443
成功后应该如上图所显示
访问
此时可以通过
http:localhost:7080
注册后设置模型
此时注意,如果是非docker方式部署的ollama,需要将端口11434 开放到0.0.0.0确保所有设备能够访问
此时需要编辑 ollama service的Environment 变量
文件位于:
1 | /etc/systemd/system/ollama.service |
使用vim修改
或者
1 | systemctl edit ollama.service |
[Service]
1 | Environment="OLLAMA_HOST=0.0.0.0" |
修改完之后重载一下
1 | systemctl daemon-reload |
如果这一步发现怎么样都无法链接,可以使用计算机的ip地址试试:如 http://198.168.4.1:11434
设置成功显示
使用 cloud-flare 域名代理
后续继续更行一些使用心得
导入自己的obsidian 笔记,让ai帮我回忆细节
感谢你赐予我前进的力量|Thank you for your support!
赞赏者名单|List of supporters
因为你们的支持让我意识到写文章的价值🙏
All articles in this blog are licensed under CC BY-NC-SA 4.0 unless stating additionally.
Comment
匿名评论隐私政策
✅ 你无需删除空行,直接评论以获取最佳展示效果