Spaces:
Sleeping
Sleeping
File size: 1,904 Bytes
bc829c9 771c6d7 bc829c9 66bd678 bc829c9 771c6d7 bc829c9 771c6d7 bc829c9 771c6d7 66bd678 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 |
# pinecone_utils.py
from pinecone import Pinecone, ServerlessSpec
from config import PINECONE_API_KEY, PINECONE_ENVIRONMENT, INDEX_NAME, CONTEXT_FIELDS
from sentence_transformers import SentenceTransformer
import torch
# Conectar a Pinecone
def connect_to_pinecone():
# Crear una instancia de Pinecone
pc = Pinecone(api_key=PINECONE_API_KEY)
# Verificar si el índice existe
index_names = pc.list_indexes().names()
if INDEX_NAME not in index_names:
# Si el índice no existe, crearlo
pc.create_index(
name=INDEX_NAME,
dimension=1024, # Asegúrate de que esta dimensión coincida con la de tus embeddings
metric='cosine', # Puedes cambiar el métrico según tus necesidades
spec=ServerlessSpec(
cloud='aws',
region=PINECONE_ENVIRONMENT # Asegúrate de que este sea el entorno correcto
)
)
# Conectar al índice
index = pc.Index(INDEX_NAME)
return index
# Función para realizar la búsqueda vectorial
def vector_search(query, embedding_model, index):
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# Generar el embedding utilizando el modelo de embeddings
xq = embedding_model.encode(query, convert_to_tensor=True, device=device)
# Convertir el tensor a lista
xq = xq.cpu().tolist()
# Realizar búsqueda vectorial en el índice de Pinecone
res = index.query(vector=xq, top_k=3, include_metadata=True)
if res and res['matches']:
return [
{
'content': ' '.join(f"{k}: {v}" for k, v in match['metadata'].items() if k in CONTEXT_FIELDS and k != 'Tag'),
'metadata': match['metadata'],
'score': match.get('score', 0)
}
for match in res['matches']
if 'metadata' in match
]
return []
|