修改端口信息
Some checks failed
构建并部署 AI Agent 服务 / deploy (push) Failing after 12m40s

This commit is contained in:
2026-04-16 00:31:33 +08:00
parent a92a220ff3
commit a5b8820d13
9 changed files with 114 additions and 96 deletions

View File

@@ -1,69 +1,41 @@
# =============================================================================
# Agent1 环境配置模板
# 用法: cp .env.example .env 然后修改配置值
# 用法: cp .env.example .env 然后根据实际需求修改
# =============================================================================
# -----------------------------------------------------------------------------
# AI 模型 API 密钥(必需 - 请填入真实值)
# -----------------------------------------------------------------------------
ZHIPUAI_API_KEY=your_api_key_here
# ⭐ 敏感密钥配置
# =============================================================================
# AI 模型 API 密钥
ZHIPUAI_API_KEY=your_zhipuai_api_key_here
DEEPSEEK_API_KEY=your_deepseek_api_key_here
# llama.cpp 服务认证 Token与容器启动参数一致
LLAMACPP_API_KEY=token-abc123
# -----------------------------------------------------------------------------
# llama.cpp 服务配置
# -----------------------------------------------------------------------------
# 主 LLM 服务 (Gemma-4-E2B GGUF)
# 本地开发: http://localhost:8081/v1
# Docker 部署: 根据实际部署调整
VLLM_BASE_URL=http://localhost:8081/v1
# ⭐ 日志调试配置(本地开发可灵活调整)
# =============================================================================
# 日志级别DEBUG, INFO, WARNING, ERROR, CRITICAL
# 本地开发推荐 DEBUG生产环境使用 WARNING
LOG_LEVEL=DEBUG
# Embedding 服务 (embeddinggemma-300M GGUF)
# 本地开发: http://localhost:8082/v1
VLLM_EMBEDDING_URL=http://localhost:8082/v1
# 是否启用 DEBUG 模式
DEBUG=true
# -----------------------------------------------------------------------------
# Mem0 记忆层配置
# -----------------------------------------------------------------------------
# ⭐ 注意Mem0 现在直接复用主 LLM 实例,无需单独配置
# Qdrant 向量数据库地址
# 本地开发: http://localhost:6333
# 远程服务器: http://115.190.121.151:6333
# Docker Compose: http://qdrant:6333
QDRANT_URL=http://115.190.121.151:6333
QDRANT_COLLECTION_NAME=mem0_user_memories
# -----------------------------------------------------------------------------
# 数据库配置
# -----------------------------------------------------------------------------
# PostgreSQL 连接字符串
# 本地开发: postgresql://postgres:mysecretpassword@localhost:5432/langgraph_db?sslmode=disable
# 远程服务器: postgresql://postgres:mysecretpassword@115.190.121.151:5432/langgraph_db?sslmode=disable
# Docker Compose: postgresql://postgres:mysecretpassword@postgres:5432/langgraph_db?sslmode=disable
DB_URI=postgresql://postgres:mysecretpassword@115.190.121.151:5432/langgraph_db?sslmode=disable
# -----------------------------------------------------------------------------
# 前端配置
# -----------------------------------------------------------------------------
# 后端 API 地址
# 本地开发: http://localhost:8001/chat
# Docker Compose: http://backend:8001/chat
API_URL=http://localhost:8001/chat
# -----------------------------------------------------------------------------
# 应用行为配置
# -----------------------------------------------------------------------------
# 记忆提取间隔:每 N 轮对话执行一次记忆提取(默认 10
MEMORY_SUMMARIZE_INTERVAL=10
# 是否启用 Graph 执行追踪(调试用,默认 true
# 是否启用 Graph 流转追踪
ENABLE_GRAPH_TRACE=true
# -----------------------------------------------------------------------------
# 日志配置
# -----------------------------------------------------------------------------
# 日志级别: DEBUG, INFO, WARNING, ERROR, CRITICAL
LOG_LEVEL=INFO
# ⭐ 可选配置(如需覆盖 Dockerfile/docker-compose.yml 中的默认值)
# =============================================================================
# 数据库连接(如需使用本地数据库而非远程服务器)
# DB_URI=postgresql://postgres:mysecretpassword@localhost:5432/langgraph_db?sslmode=disable
# 是否启用调试模式(默认 false
DEBUG=false
# Qdrant 地址(如需使用本地 Qdrant 而非远程服务器
# QDRANT_URL=http://localhost:6333
QDRANT_COLLECTION_NAME=mem0_user_memories
# llama.cpp 服务地址(如端口有变化)
# VLLM_BASE_URL=http://localhost:8081/v1
# VLLM_EMBEDDING_URL=http://localhost:8082/v1
# 前端 API 地址(本地开发时需显式配置)
API_URL=http://localhost:8083/chat