本地部署RAGflow + Ollama, embedding 模型

RAG 的简介

Quick start | RAGFlow
infiniflow/ragflow: RAGFlow is an open-source RAG (Retrieval-Augmented Generation) engine based on deep document understanding.

部署过程

  • 首先从 官网pull 并检查完整性
    1
    2
    3
    git clone https://github.com/infiniflow/ragflow.git  
    cd ragflow
    git checkout -f v0.16.0
RAGFlow image tag Image size (GB) Has embedding models and Python packages? Stable?
v0.16.0 ≈9 ✔️ Stable release
v0.16.0-slim ≈2 Stable release
nightly ≈9 ✔️ Unstable nightly build
nightly-slim ≈2 Unstable nightly build

要注意有slim和完整版两个选择,我们选择完整版,默认情况下会pull slim版本,所以进入 docker子目录中找到 .env的隐藏文件,修改RAGFLOW_IMAGE 关键字

1
RAGFLOW_IMAGE=<默认名字>v0.16.0 (去掉slim)

接下来直接使用docker-compose下载镜像,(回到主目录)

可参考其他docker compose项目
图床搭建
Linux, ollama 配置,用法,默认路径更改,端口释放
elabFTW 实验室管理系统
Teslamate 的本地配置,爱车健康保驾护航

1
docker compose -f docker/docker-compose.yml up -d

67aafaded5740.png

我还修改了一下 mino的地址,因为我9000的地址被图床占用了,还是在.env 里找到9000即可,改为9010 deamon的地址也从哦9001 改到9011(同样的原因)

-

1
lsof -i:9000

地址检查命令,此时检查9000端口是否被占用,占用返回应用名和task ID
同样的原因

  • 还改了 ragflow的端口80:80 –>7080:80
  • 443:443

Screenshot_20250211_014509.png

成功后应该如上图所显示

访问

此时可以通过

http:localhost:7080

注册后设置模型

此时注意,如果是非docker方式部署的ollama,需要将端口11434 开放到0.0.0.0确保所有设备能够访问
此时需要编辑 ollama service的Environment 变量

文件位于:

1
/etc/systemd/system/ollama.service

使用vim修改
或者

1
systemctl edit ollama.service

[Service]

1
2
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_MODELS=/path/to/your/models"(自定义模型路径)

修改完之后重载一下

1
2
3
systemctl daemon-reload
systemctl restart ollama

如果这一步发现怎么样都无法链接,可以使用计算机的ip地址试试:如 http://198.168.4.1:11434

设置成功显示

使用 cloud-flare 域名代理

后续继续更行一些使用心得

导入自己的obsidian 笔记,让ai帮我回忆细节