C2MV commited on
Commit
e0ac11d
verified
1 Parent(s): a58d64d

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +8 -8
app.py CHANGED
@@ -35,11 +35,11 @@ model_name = "dmis-lab/selfbiorag_7b"
35
 
36
  try:
37
  print("Cargando el tokenizador y el modelo de generaci贸n desde HuggingFace...")
38
- tokenizer_gen = AutoTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
39
  model_gen = AutoModelForCausalLM.from_pretrained(
40
  model_name,
41
  torch_dtype=torch.float16 if device == "cuda" else torch.float32,
42
- use_auth_token=hf_token
43
  ).to(device)
44
  except ValueError as e:
45
  print(f"Error al cargar el tokenizador de generaci贸n: {e}")
@@ -65,8 +65,8 @@ model_trans = {}
65
  for lang, model_name_trans in translation_models.items():
66
  try:
67
  print(f"Cargando el tokenizador y el modelo de traducci贸n para {lang} desde HuggingFace...")
68
- tokenizer = MarianTokenizer.from_pretrained(model_name_trans, use_auth_token=hf_token)
69
- model = MarianMTModel.from_pretrained(model_name_trans, use_auth_token=hf_token).to(device)
70
  tokenizer_trans[lang] = tokenizer
71
  model_trans[lang] = model
72
  except Exception as e:
@@ -97,8 +97,8 @@ def generar_y_traducir_respuesta(consulta, idioma_destino):
97
  with torch.no_grad():
98
  outputs = model_gen.generate(input_ids=inputs, **generation_kwargs)
99
 
100
- # Decodificar la respuesta en ingl茅s
101
- respuesta_en = tokenizer_gen.decode(outputs[0], skip_special_tokens=True)
102
 
103
  # Traducir la respuesta al idioma seleccionado
104
  if idioma_destino in translation_models:
@@ -112,8 +112,8 @@ def generar_y_traducir_respuesta(consulta, idioma_destino):
112
  with torch.no_grad():
113
  traduccion_outputs = model_tr.generate(input_ids=traducir_inputs, max_length=512)
114
 
115
- # Decodificar la traducci贸n
116
- respuesta_traducida = tokenizer_tr.decode(traduccion_outputs[0], skip_special_tokens=True)
117
  else:
118
  respuesta_traducida = "Idioma de destino no soportado."
119
 
 
35
 
36
  try:
37
  print("Cargando el tokenizador y el modelo de generaci贸n desde HuggingFace...")
38
+ tokenizer_gen = AutoTokenizer.from_pretrained(model_name, token=hf_token)
39
  model_gen = AutoModelForCausalLM.from_pretrained(
40
  model_name,
41
  torch_dtype=torch.float16 if device == "cuda" else torch.float32,
42
+ token=hf_token
43
  ).to(device)
44
  except ValueError as e:
45
  print(f"Error al cargar el tokenizador de generaci贸n: {e}")
 
65
  for lang, model_name_trans in translation_models.items():
66
  try:
67
  print(f"Cargando el tokenizador y el modelo de traducci贸n para {lang} desde HuggingFace...")
68
+ tokenizer = MarianTokenizer.from_pretrained(model_name_trans, token=hf_token)
69
+ model = MarianMTModel.from_pretrained(model_name_trans, token=hf_token).to(device)
70
  tokenizer_trans[lang] = tokenizer
71
  model_trans[lang] = model
72
  except Exception as e:
 
97
  with torch.no_grad():
98
  outputs = model_gen.generate(input_ids=inputs, **generation_kwargs)
99
 
100
+ # Decodificar la respuesta en ingl茅s con limpieza de espacios
101
+ respuesta_en = tokenizer_gen.decode(outputs[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
102
 
103
  # Traducir la respuesta al idioma seleccionado
104
  if idioma_destino in translation_models:
 
112
  with torch.no_grad():
113
  traduccion_outputs = model_tr.generate(input_ids=traducir_inputs, max_length=512)
114
 
115
+ # Decodificar la traducci贸n con limpieza de espacios
116
+ respuesta_traducida = tokenizer_tr.decode(traduccion_outputs[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
117
  else:
118
  respuesta_traducida = "Idioma de destino no soportado."
119