Update app.py
Browse files
app.py
CHANGED
@@ -35,11 +35,11 @@ model_name = "dmis-lab/selfbiorag_7b"
|
|
35 |
|
36 |
try:
|
37 |
print("Cargando el tokenizador y el modelo de generaci贸n desde HuggingFace...")
|
38 |
-
tokenizer_gen = AutoTokenizer.from_pretrained(model_name,
|
39 |
model_gen = AutoModelForCausalLM.from_pretrained(
|
40 |
model_name,
|
41 |
torch_dtype=torch.float16 if device == "cuda" else torch.float32,
|
42 |
-
|
43 |
).to(device)
|
44 |
except ValueError as e:
|
45 |
print(f"Error al cargar el tokenizador de generaci贸n: {e}")
|
@@ -65,8 +65,8 @@ model_trans = {}
|
|
65 |
for lang, model_name_trans in translation_models.items():
|
66 |
try:
|
67 |
print(f"Cargando el tokenizador y el modelo de traducci贸n para {lang} desde HuggingFace...")
|
68 |
-
tokenizer = MarianTokenizer.from_pretrained(model_name_trans,
|
69 |
-
model = MarianMTModel.from_pretrained(model_name_trans,
|
70 |
tokenizer_trans[lang] = tokenizer
|
71 |
model_trans[lang] = model
|
72 |
except Exception as e:
|
@@ -97,8 +97,8 @@ def generar_y_traducir_respuesta(consulta, idioma_destino):
|
|
97 |
with torch.no_grad():
|
98 |
outputs = model_gen.generate(input_ids=inputs, **generation_kwargs)
|
99 |
|
100 |
-
# Decodificar la respuesta en ingl茅s
|
101 |
-
respuesta_en = tokenizer_gen.decode(outputs[0], skip_special_tokens=True)
|
102 |
|
103 |
# Traducir la respuesta al idioma seleccionado
|
104 |
if idioma_destino in translation_models:
|
@@ -112,8 +112,8 @@ def generar_y_traducir_respuesta(consulta, idioma_destino):
|
|
112 |
with torch.no_grad():
|
113 |
traduccion_outputs = model_tr.generate(input_ids=traducir_inputs, max_length=512)
|
114 |
|
115 |
-
# Decodificar la traducci贸n
|
116 |
-
respuesta_traducida = tokenizer_tr.decode(traduccion_outputs[0], skip_special_tokens=True)
|
117 |
else:
|
118 |
respuesta_traducida = "Idioma de destino no soportado."
|
119 |
|
|
|
35 |
|
36 |
try:
|
37 |
print("Cargando el tokenizador y el modelo de generaci贸n desde HuggingFace...")
|
38 |
+
tokenizer_gen = AutoTokenizer.from_pretrained(model_name, token=hf_token)
|
39 |
model_gen = AutoModelForCausalLM.from_pretrained(
|
40 |
model_name,
|
41 |
torch_dtype=torch.float16 if device == "cuda" else torch.float32,
|
42 |
+
token=hf_token
|
43 |
).to(device)
|
44 |
except ValueError as e:
|
45 |
print(f"Error al cargar el tokenizador de generaci贸n: {e}")
|
|
|
65 |
for lang, model_name_trans in translation_models.items():
|
66 |
try:
|
67 |
print(f"Cargando el tokenizador y el modelo de traducci贸n para {lang} desde HuggingFace...")
|
68 |
+
tokenizer = MarianTokenizer.from_pretrained(model_name_trans, token=hf_token)
|
69 |
+
model = MarianMTModel.from_pretrained(model_name_trans, token=hf_token).to(device)
|
70 |
tokenizer_trans[lang] = tokenizer
|
71 |
model_trans[lang] = model
|
72 |
except Exception as e:
|
|
|
97 |
with torch.no_grad():
|
98 |
outputs = model_gen.generate(input_ids=inputs, **generation_kwargs)
|
99 |
|
100 |
+
# Decodificar la respuesta en ingl茅s con limpieza de espacios
|
101 |
+
respuesta_en = tokenizer_gen.decode(outputs[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
|
102 |
|
103 |
# Traducir la respuesta al idioma seleccionado
|
104 |
if idioma_destino in translation_models:
|
|
|
112 |
with torch.no_grad():
|
113 |
traduccion_outputs = model_tr.generate(input_ids=traducir_inputs, max_length=512)
|
114 |
|
115 |
+
# Decodificar la traducci贸n con limpieza de espacios
|
116 |
+
respuesta_traducida = tokenizer_tr.decode(traduccion_outputs[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
|
117 |
else:
|
118 |
respuesta_traducida = "Idioma de destino no soportado."
|
119 |
|