Files
ailine/.env.example

42 lines
1.7 KiB
Plaintext
Raw Normal View History

# =============================================================================
# Agent1 环境配置模板
2026-04-16 00:31:33 +08:00
# 用法: cp .env.example .env 然后根据实际需求修改
# =============================================================================
2026-04-16 00:31:33 +08:00
# ⭐ 敏感密钥配置
# =============================================================================
# AI 模型 API 密钥
ZHIPUAI_API_KEY=your_zhipuai_api_key_here
DEEPSEEK_API_KEY=your_deepseek_api_key_here
2026-04-16 00:31:33 +08:00
# llama.cpp 服务认证 Token与容器启动参数一致
LLAMACPP_API_KEY=token-abc123
2026-04-16 00:31:33 +08:00
# ⭐ 日志调试配置(本地开发可灵活调整)
# =============================================================================
# 日志级别DEBUG, INFO, WARNING, ERROR, CRITICAL
# 本地开发推荐 DEBUG生产环境使用 WARNING
LOG_LEVEL=DEBUG
2026-04-16 00:31:33 +08:00
# 是否启用 DEBUG 模式
DEBUG=true
2026-04-16 00:31:33 +08:00
# 是否启用 Graph 流转追踪
ENABLE_GRAPH_TRACE=true
2026-04-16 00:31:33 +08:00
# ⭐ 可选配置(如需覆盖 Dockerfile/docker-compose.yml 中的默认值)
# =============================================================================
# 数据库连接(如需使用本地数据库而非远程服务器)
# DB_URI=postgresql://postgres:mysecretpassword@localhost:5432/langgraph_db?sslmode=disable
2026-04-16 00:31:33 +08:00
# Qdrant 地址(如需使用本地 Qdrant 而非远程服务器)
# QDRANT_URL=http://localhost:6333
QDRANT_COLLECTION_NAME=mem0_user_memories
2026-04-16 00:31:33 +08:00
# llama.cpp 服务地址(如端口有变化)
# VLLM_BASE_URL=http://localhost:8081/v1
# VLLM_EMBEDDING_URL=http://localhost:8082/v1
2026-04-16 00:31:33 +08:00
# 前端 API 地址(本地开发时需显式配置)
2026-04-16 03:21:38 +08:00
# 注意:这里只需要域名和端口,不需要 /chat 路径
API_URL=http://localhost:8083