优化memory、rag和embedding模块
Some checks failed
构建并部署 AI Agent 服务 / deploy (push) Failing after 5m5s

This commit is contained in:
2026-04-29 10:52:01 +08:00
parent da4a7b0dd4
commit 223d1c9afd
4 changed files with 113 additions and 84 deletions

View File

@@ -1,49 +1,88 @@
"""
嵌入模型包装器,用于 llama.cpp 服务
嵌入模型包装器 - 直接使用统一嵌入服务
支持自动降级(本地 llama.cpp → 智谱),由 get_embedding_service() 内部处理
"""
import os
from .config import LLAMACPP_EMBEDDING_URL, LLAMACPP_API_KEY
import httpx
import sys
import logging
from typing import List
from pathlib import Path
# 添加父目录到路径,支持从 app.model_services 导入
backend_root = Path(__file__).parent.parent
if str(backend_root) not in sys.path:
sys.path.insert(0, str(backend_root))
from .config import LLAMACPP_EMBEDDING_URL, LLAMACPP_API_KEY
from langchain_core.embeddings import Embeddings
logger = logging.getLogger(__name__)
class LlamaCppEmbedder:
"""通过 OpenAI 兼容 API 封装 llama.cpp 嵌入服务。"""
"""
嵌入器包装类 - 直接使用统一的 get_embedding_service()
降级逻辑完全由 app.model_services 处理
"""
def __init__(self, model: str = "Qwen3-Embedding-0.6B-Q8_0"):
def __init__(self, model: str = "Qwen3-Embedding-0.6B-Q8_0", use_fallback: bool = True):
"""
Args:
model: 嵌入模型名称,默认 "Qwen3-Embedding-0.6B-Q8_0"
model: 嵌入模型名称(向后兼容,现在实际使用统一服务)
use_fallback: 是否使用降级机制(保留参数,现在始终为 True
"""
self.base_url = LLAMACPP_EMBEDDING_URL
self.api_key = LLAMACPP_API_KEY
self.model = model
print(f"初始化 base_url: { self.base_url}")
self._fallback_embeddings = None
# 直接获取统一嵌入服务
try:
from app.model_services import get_embedding_service
self._fallback_embeddings = get_embedding_service()
logger.info("✅ 统一嵌入服务加载成功")
except Exception as e:
logger.warning(f"⚠️ 无法加载统一嵌入服务: {e}")
# 保留向后兼容的初始化
self.base_url = LLAMACPP_EMBEDDING_URL
self.api_key = LLAMACPP_API_KEY
def as_langchain_embeddings(self) -> Embeddings:
"""创建 LangChain 兼容的嵌入实例"""
"""创建 LangChain 兼容的嵌入实例"""
if self._fallback_embeddings:
logger.info("✅ 使用统一嵌入服务(已内置降级机制)")
return self._fallback_embeddings
# 向后兼容,仅在统一服务不可用时使用传统方式
logger.warning("⚠️ 统一服务不可用,使用传统模式(不推荐)")
return _LlamaCppLangchainAdapter(self)
def embed_documents(self, texts: List[str]) -> List[List[float]]:
"""嵌入一批文档"""
"""嵌入一批文档"""
if self._fallback_embeddings:
return self._fallback_embeddings.embed_documents(texts)
# 向后兼容
return self._call_embedding_api(texts)
def embed_query(self, text: str) -> List[List[float]]:
"""嵌入单个查询"""
def embed_query(self, text: str) -> List[float]:
"""嵌入单个查询"""
if self._fallback_embeddings:
return self._fallback_embeddings.embed_query(text)
# 向后兼容
return self._call_embedding_api([text])[0]
def get_embedding_dimension(self) -> int:
"""通过嵌入测试字符串获取嵌入维度"""
"""通过嵌入测试字符串获取嵌入维度"""
test_embedding = self.embed_query("test")
return len(test_embedding)
def _call_embedding_api(self, texts: List[str]) -> List[List[float]]:
"""直接调用 llama.cpp 嵌入 API。"""
"""仅作为向后兼容的备用方法"""
import httpx
if not hasattr(self, 'base_url') or not self.base_url:
raise ValueError("LLAMACPP_EMBEDDING_URL 未配置且统一服务不可用")
headers = {"Content-Type": "application/json"}
if self.api_key:
headers["Authorization"] = f"Bearer {self.api_key}"
@@ -52,7 +91,6 @@ class LlamaCppEmbedder:
if not base.endswith("/v1"):
base = base + "/v1"
payload = {
"input": texts,
"model": self.model,
@@ -76,7 +114,7 @@ class LlamaCppEmbedder:
class _LlamaCppLangchainAdapter(Embeddings):
"""将 LlamaCppEmbedder 适配为 LangChain Embeddings 接口。"""
"""仅作为向后兼容的适配器"""
def __init__(self, embedder: LlamaCppEmbedder):
self._embedder = embedder
@@ -84,5 +122,5 @@ class _LlamaCppLangchainAdapter(Embeddings):
def embed_documents(self, texts: List[str]) -> List[List[float]]:
return self._embedder.embed_documents(texts)
def embed_query(self, text: str) -> List[List[float]]:
def embed_query(self, text: str) -> List[float]:
return self._embedder.embed_query(text)