四阶段递进式实施 — 从环境搭建到正式上线,7.5~8.5 个工作日
其中 Phase 1-2 完成后即可交付一个完整可用的企业知识库系统(2 天)
下载安装本地 LLM 推理引擎,拉取 Chat + Embedding 模型
启动 MySQL、Redis、Weaviate、MinIO、后端、前端等全部服务
在管理后台添加 Chat 和 Embedding 模型配置
前端对话测试,确认 前端 ↔ 后端 ↔ LLM 全链路通
ruoyi-ai 跑起来了吗?能跟 LLM 对话吗?
新建知识库实例,绑定 Embedding 模型,配置分块策略
测试 Word/PDF/Excel/Markdown/TXT 五种格式文档的上传和解析
验证知识库检索增强问答效果,测试事实查询、对比查询等场景
文档能上传吗?能问答吗?效果怎样?是否先部署到现场?
补全 knowledge_graph 建表 SQL,启动 Neo4j,配置 Java 连接
GraphExtractionService:动态 Prompt 生成、LLM 调用、JSON 解析、实体对齐
Neo4jGraphService:节点/关系 CRUD、搜索、邻居查询、路径查询
触发构建 API、异步批量处理、进度查询、错误容错
统计、节点列表、搜索、邻居、路径、ECharts 可视化数据接口
ECharts Graph 力导向图、节点详情、搜索筛选、统计信息
图谱能构建吗?能看到可视化吗?选择知识库 → 构建 → 看到图谱
构建后端/前端、导出 Docker 镜像、准备模型文件和配置
导入镜像、启动服务、LM Studio 加载模型、管理后台配置
创建知识库分类、批量上传企业文档、培训管理员操作
现场系统稳定吗?管理员能独立操作吗?项目正式交付
| 配置项 | 开发环境 | 正式环境 | 切换方式 |
|---|---|---|---|
| Chat 模型 | Ollama qwen2.5:7b | LM Studio qwen3.5-35b | 管理后台改配置 |
| Embedding 模型 | Ollama nomic-embed-text | LM Studio bge-m3 | 管理后台改配置 |
| 模型接口地址 | host.docker.internal:11434 | 172.18.0.1:1234 | 管理后台改配置 |
| 向量维度 | 768 (nomic) | 1024 (bge-m3) | 管理后台改配置 |
| Neo4j | localhost:7687 | localhost:7687 | 相同 |
| MySQL/Redis/Weaviate | Docker 本地 | Docker 本地 | 相同 |
| 代码 | 完全相同 | 完全相同 | 零修改 |