企业大模型知识库

企业大模型知识库 - 整体架构

基于 ruoyi-ai 框架 | Docker Compose 一键部署 | 完全离线运行

💻 用户访问层
🛠 管理后台 :25666
  • 模型管理(供应商/密钥/参数)
  • 知识库管理(创建/文档/索引)
  • 知识图谱浏览(可视化/查询)
  • 用户权限管理(角色/部门/租户)
  • 图谱维度配置(实体/关系类型)
💬 用户端(知识问答) :25137
  • 智能对话(RAG 增强问答)
  • 知识库选择与切换
  • 多轮对话上下文记忆
  • 流式输出实时响应
  • 来源文档溯源引用
▼ HTTP / WebSocket ▼
⚙ 应用服务层
ruoyi-ai 后端 (Java 17 + Spring Boot 3.5.8) :26039
📚 知识库管理
文档上传
格式解析
智能分块
向量索引
🔎 RAG 检索问答
向量检索
相似度排序
上下文注入
来源标注
🌐 知识图谱模块
LLM 实体抽取
实体对齐去重
Neo4j 读写
图谱查询 API
🔒 权限与路由
用户认证
角色权限
模型路由
多供应商切换
▼ OpenAI 兼容 API ▼
🧠 AI 推理层
🚀 LM Studio 0.4.5 — 本地大模型推理引擎 :1234
Chat 模型(主力)
qwen3.5-35b
37.81 GB | 高质量推理
Chat 模型(轻量)
glm-4.6v-flash
7.95 GB | 快速响应
Embedding 模型
bge-m3
~2.2 GB | 中文优化 1024维
/v1/chat/completions /v1/embeddings /v1/models
▼ 数据读写 ▼
🗃 数据存储层
🗃 MySQL 8.0 :23306
  • 业务数据
  • 用户权限
  • 模型配置
  • 知识库元数据
Redis :26379
  • 会话缓存
  • 限流计数
  • Token 存储
🔎 Weaviate :28080
  • 向量索引
  • 语义检索
  • 相似度计算
📦 MinIO :29000
  • 原始文档
  • 文件存储
  • S3 兼容
🌐 Neo4j 5.15 :7474/:7687
  • 实体节点存储
  • 关系边存储
  • 图谱查询 (Cypher)
  • 路径推理
管理后台
用户前端
应用后端
知识图谱
AI 推理
数据存储

服务间通信协议

💻 前端 → 后端

管理后台和用户端通过 HTTP REST API 调用后端服务,对话功能使用 WebSocket 实现流式输出。

HTTP / WebSocket

☕ 后端 → LM Studio

通过 OpenAI 兼容 API 调用本地 LM Studio 进行 Chat 推理和 Embedding 向量化。

OpenAI Compatible API

☕ 后端 → Neo4j

通过 Bolt 协议使用 neo4j-java-driver 进行图谱数据的读写和 Cypher 查询。

Bolt Protocol

☕ 后端 → Weaviate

通过 REST API 进行向量数据的写入和语义检索查询。

REST API

☕ 后端 → MySQL/Redis

通过 JDBC 和 Lettuce 客户端进行业务数据读写和缓存操作。

JDBC / Redis Protocol

☕ 后端 → MinIO

通过 S3 兼容 API 进行文件的上传、下载和管理。

S3 Compatible API