JaphetHernandez commited on
Commit
565090b
·
verified ·
1 Parent(s): 1498c8a

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +20 -6
app.py CHANGED
@@ -12,6 +12,7 @@ login(huggingface_token)
12
 
13
  # Cargar el modelo Llama 3.1
14
  model_name = "meta-llama/llama-3.1-8b-instruct" # Asegúrate de que este sea el nombre correcto del modelo
 
15
  # Usar transformers pipeline para carga
16
  llm_pipeline = pipeline("text-generation", model=model_name, device=0 if torch.cuda.is_available() else -1)
17
  llm = HuggingFacePipeline(pipeline=llm_pipeline)
@@ -37,10 +38,23 @@ if uploaded_file is not None:
37
  """
38
 
39
  # Llamar al modelo Llama con el prompt
40
- response = llm(prompt)
41
-
42
- # Mostrar la respuesta del modelo
43
- st.write("Respuesta del modelo:", response)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
44
 
45
- # Aquí puedes procesar la respuesta para extraer los scores y ordenar los registros
46
- # Esto asume que el modelo te devuelve una respuesta estructurada en un formato que puedes procesar
 
12
 
13
  # Cargar el modelo Llama 3.1
14
  model_name = "meta-llama/llama-3.1-8b-instruct" # Asegúrate de que este sea el nombre correcto del modelo
15
+
16
  # Usar transformers pipeline para carga
17
  llm_pipeline = pipeline("text-generation", model=model_name, device=0 if torch.cuda.is_available() else -1)
18
  llm = HuggingFacePipeline(pipeline=llm_pipeline)
 
38
  """
39
 
40
  # Llamar al modelo Llama con el prompt
41
+ try:
42
+ response = llm(prompt)
43
+ # Mostrar la respuesta del modelo
44
+ st.write("Respuesta del modelo:", response)
45
+
46
+ # Aquí puedes procesar la respuesta para extraer los scores y ordenar los registros
47
+ # Asegúrate de que la respuesta sea en un formato que puedas procesar
48
+ # Si el formato de respuesta es un texto, podrías necesitar parsear la respuesta
49
+ # Aquí hay un ejemplo simple de cómo podrías hacer esto (esto depende de cómo el modelo responde)
50
+
51
+ # Supongamos que el modelo devuelve un JSON o un texto estructurado
52
+ # Procesar la respuesta según sea necesario
53
+ # Si `response` es una lista de dicts o similar, puedes ordenarlos así:
54
+ # df['Score'] = [extract_score(item) for item in response] # Asegúrate de definir extract_score()
55
+ # df_sorted = df.sort_values(by='Score', ascending=False)
56
+ # st.write(df_sorted)
57
+
58
+ except Exception as e:
59
+ st.error(f"Ocurrió un error al procesar el modelo: {str(e)}")
60