Spaces:
Running
on
CPU Upgrade
Running
on
CPU Upgrade
FinancialSupport
commited on
Update src/about.py
Browse files- src/about.py +4 -2
src/about.py
CHANGED
@@ -26,7 +26,9 @@ TITLE = """<h1 align="center" id="space-title">Classifica generale degli LLM ita
|
|
26 |
|
27 |
# What does your leaderboard evaluate?
|
28 |
INTRODUCTION_TEXT = """
|
29 |
-
|
|
|
|
|
30 |
"""
|
31 |
|
32 |
# Which evaluations are you running? how can people reproduce what you have?
|
@@ -34,7 +36,7 @@ LLM_BENCHMARKS_TEXT = f"""
|
|
34 |
## Come funziona
|
35 |
|
36 |
## Reproducibility
|
37 |
-
Per riprodurre
|
38 |
lm-eval --model hf --model_args pretrained=<vostro modello> --tasks hellaswag_it,arc_it --device cuda:0 --batch_size auto:2;
|
39 |
lm-eval --model hf --model_args pretrained=<vostro modello>, --tasks m_mmlu_it --num_fewshot 5 --device cuda:0 --batch_size auto:2
|
40 |
"""
|
|
|
26 |
|
27 |
# What does your leaderboard evaluate?
|
28 |
INTRODUCTION_TEXT = """
|
29 |
+
Benvenuti nella pagina della open ita llm leaderboard!
|
30 |
+
In questa dashboard potrete trovare tutti i risultati delle performance dei Large Language Models nella lingua italiana sui principali eval
|
31 |
+
La classifica è 100% open source, chiunque può contribuire e aggiungere il proprio modello :)
|
32 |
"""
|
33 |
|
34 |
# Which evaluations are you running? how can people reproduce what you have?
|
|
|
36 |
## Come funziona
|
37 |
|
38 |
## Reproducibility
|
39 |
+
Per riprodurre i risultati scaricate la [repo](https://github.com/EleutherAI/lm-evaluation-harness) eseguite:
|
40 |
lm-eval --model hf --model_args pretrained=<vostro modello> --tasks hellaswag_it,arc_it --device cuda:0 --batch_size auto:2;
|
41 |
lm-eval --model hf --model_args pretrained=<vostro modello>, --tasks m_mmlu_it --num_fewshot 5 --device cuda:0 --batch_size auto:2
|
42 |
"""
|