```
Some checks failed
构建并部署 AI Agent 服务 / deploy (push) Failing after 1s

docs(.gitignore/README/QUICKSTART): 更新文档和忽略配置

- 添加IDE配置、日志和数据文件到.gitignore
- 重构QUICKSTART.md,提供Docker Compose和本地开发两种部署方式
- 更新README.md,优化项目介绍和架构说明
- 移除旧的agent.py和backend.py文件
```
This commit is contained in:
2026-04-13 23:57:16 +08:00
parent bf27398cc9
commit 22cc9b1096
20 changed files with 714 additions and 481 deletions

402
README.md
View File

@@ -1,192 +1,205 @@
# AI Agent - 个人生活助手和数据分析助手
# AI Agent - 智能助手系统
## 项目概述
一个基于 LangGraph + FastAPI 的智能对话助手支持多模型切换、RAG 知识库检索、文件处理和网页抓取等功能。
这是一个基于 LangGraph、LangChain 和 FastAPI 构建的 AI 助手系统,能够处理天气查询、文件读取、网页抓取等任务。采用前后端分离架构,支持 PostgreSQL 持久化对话记忆。
---
## 项目结构
## 🎯 核心功能
### 面向用户的功能
- 💬 **智能对话**:支持多轮对话,自动记忆上下文
- 🌤️ **天气查询**:实时获取各地天气信息
- 📄 **文档处理**:读取 TXT、PDF、Excel 等格式文件
- 🌐 **网页抓取**:提取网页正文内容
- 🔍 **知识库检索RAG**:基于向量数据库的智能问答
- 🔄 **多模型切换**:前端可选择不同大语言模型
### 技术特性
-**持久化记忆**PostgreSQL 存储对话历史,重启不丢失
-**高可用架构**:模型自动降级,确保服务稳定
-**前后端分离**FastAPI 后端 + Streamlit 前端
-**Docker 部署**:一键启动所有服务
---
## 🏗️ 技术架构
### 技术栈
| 层级 | 技术选型 | 说明 |
|------|---------|------|
| **LLM 服务** | 智谱 AI API / vLLM (Gemma-4) | 云端 API 或本地推理 |
| **Embedding** | 智谱 Embedding API | 向量嵌入(无需 PyTorch |
| **Agent 框架** | LangGraph + LangChain | 工作流编排 |
| **向量数据库** | ChromaDB / pgvector | RAG 知识检索 |
| **后端框架** | FastAPI + Uvicorn | RESTful API + WebSocket |
| **前端框架** | Streamlit | 交互式 Web 界面 |
| **数据库** | PostgreSQL 16 | 对话记忆持久化 |
| **容器化** | Docker + Docker Compose | 服务编排 |
### 架构图
```
┌──────────────┐
│ 用户浏览器 │ Streamlit 前端 (8501)
└──────┬───────┘
│ HTTP/WebSocket
┌──────────────────┐
│ FastAPI 后端 │ 端口 8001
│ ┌────────────┐ │
│ │ AIAgent │ │ 多模型管理
│ └─────┬──────┘ │
│ │ │
│ ┌─────▼──────┐ │
│ │LangGraph │ │ 工作流引擎
│ │ StateGraph │ │
│ └─────┬──────┘ │
│ │ │
│ ┌─────▼──────┐ │
│ │ Tools │ │ 工具集合
│ │ - Weather │ │
│ │ - File IO │ │
│ │ - Web Scrap│ │
│ │ - RAG │ │
│ └────────────┘ │
└────────┬─────────┘
┌────┴────┐
↓ ↓
┌────────┐ ┌──────────┐
│PostgreSQL│ │ChromaDB │
│(记忆存储)│ │(向量检索)│
└────────┘ └──────────┘
```
### 项目结构
```
Agent1/
├── tools.py # 工具定义(纯函数、@tool
├── graph_builder.py # LangGraph 状态图构建(状态定义、节点、边)
├── agent.py # AIAgentService 类模型初始化、graph 管理、消息处理
├── backend.py # FastAPI 应用路由、WebSocket、lifespan
├── frontend.py # Streamlit 前端(通过 HTTP 调用后端)
├── .env # 环境变量ZHIPUAI_API_KEY 等
├── requirement.txt # Python 依赖包列表
── user_docs/ # 允许读取的文档目录
├── agent.py # Agent 服务核心(多模型管理
├── graph_builder.py # LangGraph 状态图构建
├── tools.py # 工具函数定义(@tool 装饰器
├── backend.py # FastAPI 后端应用
├── frontend.py # Streamlit 前端界面
├── rag_example.py # RAG 实现示例(无 PyTorch
├── docker-compose.yml # Docker 服务编排
── Dockerfile.backend # 后端镜像构建
├── Dockerfile.frontend # 前端镜像构建
├── requirement.txt # Python 依赖
├── .env # 环境变量配置
└── user_docs/ # 用户文档目录
├── a.txt
├── b.pdf
└── c.xlsx
```
## 核心功能
---
- 🌤️ **天气查询**:获取指定地点的当前温度
- 📄 **文本文件读取**:读取 `.txt``.md` 等文本文件
- 📑 **PDF 文件读取**:解析 PDF 文件并提取文本内容
- 📊 **Excel 数据处理**:读取 Excel 文件并转换为 Markdown 表格
- 🌐 **网页抓取**:抓取网页正文内容
- 💾 **持久化记忆**:使用 PostgreSQL 保存对话历史,支持多轮对话上下文
- 🔄 **多模型动态切换**:前端可选择不同的大语言模型,后端自动切换处理
## 🚀 快速开始
## 技术栈
详细启动指南请查看 [QUICKSTART.md](QUICKSTART.md)
- **后端框架**FastAPI + Uvicorn
- **前端框架**Streamlit
- **AI 框架**LangGraph + LangChain
- **数据库**PostgreSQL用于持久化对话记忆
- **LLM 支持**
- 智谱 AIglm-4.7-flash在线服务响应速度快
- 本地 vLLMgemma-4-E2B-it本地部署数据隐私性好
系统支持多种大语言模型,可在前端动态切换。每个模型在启动时都会预编译独立的 LangGraph确保最佳性能。如果某个模型初始化失败如 API Key 未配置),系统会自动降级到可用模型。
## 环境要求
- Python 3.10+
- PostgreSQL 16+
- Docker可选用于运行 PostgreSQL
## 安装步骤
### 1. 启动 PostgreSQL 容器
### 方式一Docker Compose推荐
```bash
docker run -d \
--name postgres-langgraph \
# 1. 配置 .env 文件
echo "ZHIPUAI_API_KEY=your_key_here" > .env
# 2. 启动所有服务
docker compose up -d --build
# 3. 访问应用
# 前端: http://localhost:8501
# 后端: http://localhost:8001
```
### 方式二:本地开发模式
```bash
# 1. 启动 PostgreSQL
docker run -d --name postgres-langgraph \
-e POSTGRES_PASSWORD=mysecretpassword \
-e POSTGRES_DB=langgraph_db \
-p 5432:5432 \
-v ~/docker_volumes/postgres_data:/var/lib/postgresql/data \
postgres:16
```
-p 5432:5432 postgres:16
### 2. 安装 Python 依赖
```bash
pip install fastapi uvicorn streamlit requests psycopg[binary,pool] \
langgraph langgraph-checkpoint-postgres langchain langchain-community \
langchain-openai python-dotenv pypdf pandas beautifulsoup4
```
或者使用 requirements.txt
```bash
# 2. 安装依赖
pip install -r requirement.txt
```
### 3. 配置环境变量
编辑 `.env` 文件,设置您的 API 密钥:
```env
ZHIPUAI_API_KEY=your_zhipuai_api_key_here
VLLM_LOCAL_KEY=token-abc123 # 如果使用本地模型
```
## 运行步骤
### 1. 启动后端服务
```bash
# 3. 启动后端
python backend.py
```
看到 `Uvicorn running on http://0.0.0.0:8001` 即表示启动成功。
### 2. 启动前端界面(新终端)
```bash
# 4. 启动前端(新终端)
streamlit run frontend.py
```
浏览器会自动打开 `http://localhost:8501`,即可开始使用。
---
## API 接口
## 📖 使用指南
### POST /chat
### 基础对话
同步对话接口,支持模型选择
直接在聊天框输入问题即可:
**请求体:**
```json
{
"message": "今天北京天气怎么样?",
"thread_id": "optional-thread-id",
"model": "zhipu" // 可选: "zhipu" 或 "local"
}
```
**响应:**
```json
{
"reply": "当前北京的温度为25℃",
"thread_id": "generated-or-provided-thread-id",
"model_used": "zhipu" // 实际使用的模型
}
你好,请介绍一下自己
今天北京天气怎么样?
帮我总结一下 a.txt 的内容
```
**模型选项:**
- `zhipu`:智谱 GLM-4.7-Flash在线
- `local`:本地 vLLM Gemma-4需要启动 vLLM 容器)
### WebSocket /ws
流式对话接口(可选扩展)
## 使用说明
### 工具调用示例
1. **查询天气**
```
用户:今天上海天气怎么样?
```
2. **读取文本文件**
```
用户:请读取 a.txt 文件的内容
```
3. **读取 PDF 文件**
```
用户:帮我总结一下 b.pdf 的内容
```
4. **读取 Excel 文件**
```
用户:显示 c.xlsx 的数据
```
5. **抓取网页**
```
用户:请抓取 https://example.com 的内容
```
### 会话记忆
- 系统会自动为每个会话生成唯一的 `thread_id`
- 相同 `thread_id` 的对话会共享历史记录
- 即使重启后端服务,对话历史依然保存在 PostgreSQL 中
- 如需固定会话 ID可在前端代码中修改 `st.session_state.thread_id` 为固定字符串
| 功能 | 示例提问 |
|------|---------|
| 🌤️ 天气查询 | "上海今天天气如何?" |
| 📄 读取文本 | "读取 a.txt 的内容" |
| 📑 解析 PDF | "总结 b.pdf 的主要内容" |
| 📊 Excel 数据 | "显示 c.xlsx 的数据" |
| 🌐 网页抓取 | "抓取 https://example.com 的内容" |
| 🔍 知识库检索 | "根据知识库回答XXX" |
### 多模型切换
**前端操作:**
1. 在左侧边栏的"选择大模型"下拉框中选择模型
2. 可随时切换模型,甚至在同一会话中
3. 点击"🔄 新会话"按钮可清空当前对话并开始新的会话
1. 在左侧边栏选择模型:
- **智谱 GLM-4**:在线服务,速度快
- **本地 Gemma-4**:本地部署,隐私性好
**后端行为:**
- 启动时会预编译所有可用模型的 LangGraph
- 如果某个模型初始化失败(如 API Key 未配置),会自动跳过
- 请求时如果选择的模型不可用,会自动降级到第一个可用模型
- 响应中会返回 `model_used` 字段,显示实际使用的模型
2. 可随时切换,甚至在同一会话中
3. 点击 "🔄 新会话" 清空当前对话
---
## 🔧 开发指南
### 添加新工具
`tools.py` 中添加新的 `@tool` 装饰函数:
```python
@tool
def my_new_tool(param: str) -> str:
"""
工具描述(会显示给 LLM
Args:
param: 参数说明
Returns:
返回值说明
"""
# 实现逻辑
return result
```
工具会自动注册到 `AVAILABLE_TOOLS` 列表中。
### 添加新模型
`agent.py``initialize()` 方法中添加模型配置:
**添加新模型:**
在 `agent.py` 的 `initialize()` 方法中的 `model_configs` 字典添加新模型即可:
```python
model_configs = {
"zhipu": self._create_zhipu_llm,
@@ -195,74 +208,75 @@ model_configs = {
}
```
## 架构说明
### Docker 部署
### 模块职责
项目包含完整的 Docker 配置:
- **tools.py**:独立工具模块,包含所有 `@tool` 装饰的纯函数,无外部依赖,可单独测试
- **graph_builder.py**LangGraph 状态图构建器,定义状态、节点函数和条件边
- **agent.py**AIAgentService 服务类,负责模型初始化和 graph 编译,使用 `AsyncPostgresSaver`
- **backend.py**FastAPI 应用,提供 REST API 和 WebSocket 接口,端口 8001
- **frontend.py**Streamlit 前端,通过 HTTP 调用后端 API实现友好的用户界面
- **docker-compose.yml**服务编排PostgreSQL + Backend + Frontend
- **Dockerfile.backend**:后端镜像构建
- **Dockerfile.frontend**:前端镜像构建
- **.gitea/workflows/deploy.yml**CI/CD 自动化部署
### 数据流
详见 [QUICKSTART.md](QUICKSTART.md) 的 Docker 部署章节。
```
用户输入 → Streamlit 前端 → FastAPI 后端 → AIAgentService
→ LangGraph StateGraph → LLM + Tools → PostgreSQL (记忆)
→ 返回响应 → 前端展示
---
## ⚙️ 环境配置
### 必需的环境变量
`.env` 文件中配置:
```env
# 智谱 AI API Key必需
ZHIPUAI_API_KEY=your_api_key_here
# vLLM 本地模型 Token可选
VLLM_LOCAL_KEY=token-abc123
```
## 注意事项
### 数据库配置
1. **文件安全**:所有文件读取操作仅限于 `./user_docs` 目录,防止路径遍历攻击
2. **端口冲突**:后端使用 8001 端口,避免与本地 vLLM 服务的 8000 端口冲突
3. **API 密钥**:请妥善保管 `.env` 文件中的 API 密钥,不要提交到版本控制系统
4. **数据库持久化**PostgreSQL 数据卷挂载到 `~/docker_volumes/postgres_data`,确保数据安全
默认使用 PostgreSQL连接字符串
```
postgresql://postgres:mysecretpassword@localhost:5432/langgraph_db
```
## 故障排除
如使用 Docker Compose数据库会在内部网络中自动配置。
### 问题:无法连接 PostgreSQL
---
**解决方案:**
## 🐛 故障排查
### 常见问题
**Q: 无法连接 PostgreSQL**
```bash
# 检查容器是否运行
docker ps | grep postgres-langgraph
# 检查容器状态
docker ps | grep postgres
# 查看容器日志
# 查看日志
docker logs postgres-langgraph
# 重新启动容器
docker restart postgres-langgraph
```
### 问题:后端启动失败
**解决方案:**
**Q: 后端启动失败**
- 确认端口 8001 未被占用
- 检查 `.env` 文件中的 API 密钥是否正确配置
- 确认所有依赖包已正确安装
- 查看启动日志,确认至少有一个模型初始化成功
- 检查 `.env` 中的 API Key 是否正确
- 查看启动日志确认模型初始化成功
### 问题:模型切换后无响应
**解决方案:**
- 检查所选模型的配置是否正确(如智谱 API Key
- 确认 vLLM 容器是否正在运行(如果使用本地模型)
- 查看后端日志,确认模型是否初始化成功
**Q: 模型切换后无响应**
- 检查所选模型的配置是否正确
- 确认 vLLM 容器是否运行(如使用本地模型)
- 尝试切换到另一个模型
### 问题:工具调用失败
更多问题排查请查看 [QUICKSTART.md](QUICKSTART.md)
**解决方案:**
- 确认文件位于 `./user_docs` 目录下
- 检查文件格式是否正确
- 查看后端日志获取详细错误信息
---
## 许可证
## 📝 许可证
本项目采用 MIT 许可证。详见 [LICENSE](LICENSE) 文件。
## 贡献
## 🤝 贡献
欢迎提交 Issue 和 Pull Request