Spaces:
Sleeping
Sleeping
from transformers import AutoModelForCausalLM, AutoTokenizer | |
# Cargar el modelo y el tokenizer | |
model_name = "nombre_del_modelo" | |
model = AutoModelForCausalLM.from_pretrained(model_name) | |
tokenizer = AutoTokenizer.from_pretrained(model_name) | |
# Texto de entrada para la generación | |
input_text = "Tu texto aquí" | |
input_ids = tokenizer.encode(input_text, return_tensors='pt') | |
# Generación de texto con temperatura | |
outputs = model.generate( | |
input_ids, | |
max_length=100, # Longitud máxima del texto generado | |
temperature=0.7, # Ajustar la temperatura aquí | |
top_k=50, # Ajuste opcional para limitar las opciones de palabras | |
top_p=0.9, # Ajuste opcional para el muestreo por núcleo | |
do_sample=True # Habilitar el muestreo para aplicar la temperatura | |
) | |
# Decodificar el texto generado | |
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True) | |
print(generated_text) | |