182 lines
4.0 KiB
Markdown
182 lines
4.0 KiB
Markdown
# RAG知识库系统 - 快速使用指南
|
||
|
||
## 📋 当前配置
|
||
|
||
### 运行模式
|
||
✅ **混合模式 (Hybrid)**
|
||
- 文档嵌入:本地Ollama (`nomic-embed-text`)
|
||
- AI生成:远程Kimi API (`moonshot-v1-32k`)
|
||
- 向量存储:SimpleVectorStore(文件持久化)
|
||
|
||
### 文件路径
|
||
- **文档上传**:`D:\wwwroot\RAG\uploads`
|
||
- **系统日志**:`D:\wwwroot\RAG\logs`
|
||
- **向量数据**:`D:\wwwroot\RAG\data\chroma_db\vector_store.json`
|
||
|
||
## 🚀 使用步骤
|
||
|
||
### 1. 启动前检查
|
||
|
||
```bash
|
||
# 检查Ollama是否运行
|
||
ollama list
|
||
```
|
||
|
||
应该能看到 `nomic-embed-text` 模型。
|
||
|
||
### 2. 启动应用
|
||
|
||
直接运行Spring Boot应用即可。
|
||
|
||
### 3. 上传知识文档
|
||
|
||
#### 方式一:通过Web界面(推荐)
|
||
|
||
1. 登录系统:`http://localhost:30081`
|
||
2. 进入"知识库管理"页面
|
||
3. 点击"上传文档"按钮
|
||
4. 选择文档文件(支持格式:txt、pdf、docx、md)
|
||
5. 系统会自动:
|
||
- 解析文档内容
|
||
- 使用Ollama生成向量嵌入
|
||
- 存储到本地向量库
|
||
|
||
#### 方式二:直接放入文件夹
|
||
|
||
将文档文件直接复制到:`D:\wwwroot\RAG\uploads`
|
||
|
||
然后通过API触发处理:
|
||
```bash
|
||
curl -X POST http://localhost:30081/api/knowledge/rebuild
|
||
```
|
||
|
||
### 4. 使用AI分析
|
||
|
||
1. 进入"测评报告"页面
|
||
2. 选择一个测评报告
|
||
3. 点击"AI分析"按钮
|
||
4. 系统会:
|
||
- 从向量库检索相关知识
|
||
- 调用Kimi API生成专业分析报告
|
||
- 显示分析结果和知识来源
|
||
|
||
## 📄 支持的文档格式
|
||
|
||
- ✅ `.txt` - 纯文本文件
|
||
- ✅ `.md` - Markdown文档
|
||
- ✅ `.pdf` - PDF文档
|
||
- ✅ `.docx` - Word文档
|
||
|
||
## 💡 推荐的知识文档
|
||
|
||
建议上传以下类型的心理学文档:
|
||
|
||
1. **心理测评标准**
|
||
- 各类量表的解释标准
|
||
- 评分规则和参考范围
|
||
|
||
2. **心理学理论**
|
||
- 心理健康相关理论
|
||
- 心理问题的成因分析
|
||
|
||
3. **干预建议**
|
||
- 心理咨询技巧
|
||
- 心理健康维护方法
|
||
|
||
4. **案例分析**
|
||
- 典型案例及处理方法
|
||
- 专业心理咨询经验
|
||
|
||
## 🔍 测试系统
|
||
|
||
运行测试脚本验证配置:
|
||
|
||
```bash
|
||
test-rag-system.bat
|
||
```
|
||
|
||
这会测试:
|
||
- ✅ Ollama连接
|
||
- ✅ Kimi API连接
|
||
- ✅ 文档上传
|
||
- ✅ 知识检索
|
||
- ✅ AI生成
|
||
|
||
## 📊 系统状态查看
|
||
|
||
访问:`http://localhost:30081/api/knowledge/status`
|
||
|
||
返回信息包括:
|
||
- AI服务状态(Ollama + Kimi)
|
||
- 向量存储状态
|
||
- 文档数量
|
||
- 配置信息
|
||
|
||
## ⚙️ 配置说明
|
||
|
||
### 不需要安装的服务
|
||
|
||
❌ **ChromaDB** - 使用内置SimpleVectorStore
|
||
❌ **DeepSeek本地模型** - 使用远程Kimi API
|
||
|
||
### 需要运行的服务
|
||
|
||
✅ **Ollama** - 用于文档嵌入(已安装)
|
||
✅ **MySQL** - 系统数据库
|
||
✅ **Redis** - 缓存服务
|
||
|
||
## 🎯 工作流程
|
||
|
||
```
|
||
上传文档
|
||
↓
|
||
解析文本内容
|
||
↓
|
||
Ollama生成嵌入向量 (本地)
|
||
↓
|
||
存储到SimpleVectorStore (内存 + 文件)
|
||
↓
|
||
自动保存到 vector_store.json
|
||
↓
|
||
用户请求AI分析
|
||
↓
|
||
检索相关知识片段
|
||
↓
|
||
Kimi API生成报告 (远程)
|
||
↓
|
||
返回分析结果
|
||
```
|
||
|
||
## 💰 成本说明
|
||
|
||
- **文档处理**:完全免费(本地Ollama)
|
||
- **AI生成**:使用你的Kimi API额度
|
||
- **数据存储**:本地存储,无额外费用
|
||
|
||
## 🔧 常见问题
|
||
|
||
### Q: 向量数据会丢失吗?
|
||
A: 不会!系统已启用文件持久化,所有向量数据自动保存到 `D:\wwwroot\RAG\data\chroma_db\vector_store.json`。应用重启后会自动加载。
|
||
|
||
### Q: 如何备份向量数据?
|
||
A: 直接复制 `D:\wwwroot\RAG\data\chroma_db\vector_store.json` 文件即可。
|
||
|
||
### Q: 如何清空知识库?
|
||
A: 调用API:`DELETE /api/knowledge/clear` 或删除 `vector_store.json` 文件后重启应用。
|
||
|
||
### Q: 文档上传后多久可以使用?
|
||
A: 立即可用。系统会实时处理文档并生成嵌入。
|
||
|
||
### Q: 可以上传多大的文档?
|
||
A: 建议单个文档不超过10MB。大文档会自动分块处理。
|
||
|
||
## 📞 技术支持
|
||
|
||
如有问题,请查看日志:
|
||
- 应用日志:控制台输出
|
||
- RAG日志:`D:\wwwroot\RAG\logs`
|
||
|
||
---
|
||
|
||
**祝使用愉快!** 🎉
|