Spaces:
Sleeping
Sleeping
from transformers import AutoTokenizer | |
from transformers.adapters import AutoAdapterModel | |
# Cargar el modelo y tokenizer | |
model_name = "carlosdimare/clascon" # Nombre del modelo ya entrenado en Hugging Face | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
model = AutoAdapterModel.from_pretrained(model_name) | |
# Cargar el adapter preentrenado y activarlo | |
model.load_adapter(model_name, set_active=True) | |
# Función para generar respuestas | |
def generar_respuesta(prompt): | |
inputs = tokenizer(prompt, return_tensors="pt") | |
outputs = model.generate(inputs["input_ids"], max_length=100, num_beams=5, no_repeat_ngram_size=2, early_stopping=True) | |
return tokenizer.decode(outputs[0], skip_special_tokens=True) | |
# Ejemplo de uso | |
prompt = "¿Qué es la conciencia de clase y por qué es importante?" | |
respuesta = generar_respuesta(prompt) | |
print(f"Pregunta: {prompt}\nRespuesta: {respuesta}") | |