Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -12,6 +12,7 @@ login(huggingface_token)
|
|
12 |
|
13 |
# Cargar el modelo Llama 3.1
|
14 |
model_name = "meta-llama/llama-3.1-8b-instruct" # Asegúrate de que este sea el nombre correcto del modelo
|
|
|
15 |
# Usar transformers pipeline para carga
|
16 |
llm_pipeline = pipeline("text-generation", model=model_name, device=0 if torch.cuda.is_available() else -1)
|
17 |
llm = HuggingFacePipeline(pipeline=llm_pipeline)
|
@@ -37,10 +38,23 @@ if uploaded_file is not None:
|
|
37 |
"""
|
38 |
|
39 |
# Llamar al modelo Llama con el prompt
|
40 |
-
|
41 |
-
|
42 |
-
|
43 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
44 |
|
45 |
-
# Aquí puedes procesar la respuesta para extraer los scores y ordenar los registros
|
46 |
-
# Esto asume que el modelo te devuelve una respuesta estructurada en un formato que puedes procesar
|
|
|
12 |
|
13 |
# Cargar el modelo Llama 3.1
|
14 |
model_name = "meta-llama/llama-3.1-8b-instruct" # Asegúrate de que este sea el nombre correcto del modelo
|
15 |
+
|
16 |
# Usar transformers pipeline para carga
|
17 |
llm_pipeline = pipeline("text-generation", model=model_name, device=0 if torch.cuda.is_available() else -1)
|
18 |
llm = HuggingFacePipeline(pipeline=llm_pipeline)
|
|
|
38 |
"""
|
39 |
|
40 |
# Llamar al modelo Llama con el prompt
|
41 |
+
try:
|
42 |
+
response = llm(prompt)
|
43 |
+
# Mostrar la respuesta del modelo
|
44 |
+
st.write("Respuesta del modelo:", response)
|
45 |
+
|
46 |
+
# Aquí puedes procesar la respuesta para extraer los scores y ordenar los registros
|
47 |
+
# Asegúrate de que la respuesta sea en un formato que puedas procesar
|
48 |
+
# Si el formato de respuesta es un texto, podrías necesitar parsear la respuesta
|
49 |
+
# Aquí hay un ejemplo simple de cómo podrías hacer esto (esto depende de cómo el modelo responde)
|
50 |
+
|
51 |
+
# Supongamos que el modelo devuelve un JSON o un texto estructurado
|
52 |
+
# Procesar la respuesta según sea necesario
|
53 |
+
# Si `response` es una lista de dicts o similar, puedes ordenarlos así:
|
54 |
+
# df['Score'] = [extract_score(item) for item in response] # Asegúrate de definir extract_score()
|
55 |
+
# df_sorted = df.sort_values(by='Score', ascending=False)
|
56 |
+
# st.write(df_sorted)
|
57 |
+
|
58 |
+
except Exception as e:
|
59 |
+
st.error(f"Ocurrió un error al procesar el modelo: {str(e)}")
|
60 |
|
|
|
|