FinancialSupport commited on
Commit
168eacf
·
verified ·
1 Parent(s): bd6a25f

Update src/about.py

Browse files
Files changed (1) hide show
  1. src/about.py +4 -2
src/about.py CHANGED
@@ -26,7 +26,9 @@ TITLE = """<h1 align="center" id="space-title">Classifica generale degli LLM ita
26
 
27
  # What does your leaderboard evaluate?
28
  INTRODUCTION_TEXT = """
29
- La leaderboard misura le performance dei Large Language Models nella lingua italiana
 
 
30
  """
31
 
32
  # Which evaluations are you running? how can people reproduce what you have?
@@ -34,7 +36,7 @@ LLM_BENCHMARKS_TEXT = f"""
34
  ## Come funziona
35
 
36
  ## Reproducibility
37
- Per riprodurre I risultati eseguite:
38
  lm-eval --model hf --model_args pretrained=<vostro modello> --tasks hellaswag_it,arc_it --device cuda:0 --batch_size auto:2;
39
  lm-eval --model hf --model_args pretrained=<vostro modello>, --tasks m_mmlu_it --num_fewshot 5 --device cuda:0 --batch_size auto:2
40
  """
 
26
 
27
  # What does your leaderboard evaluate?
28
  INTRODUCTION_TEXT = """
29
+ Benvenuti nella pagina della open ita llm leaderboard!
30
+ In questa dashboard potrete trovare tutti i risultati delle performance dei Large Language Models nella lingua italiana sui principali eval
31
+ La classifica è 100% open source, chiunque può contribuire e aggiungere il proprio modello :)
32
  """
33
 
34
  # Which evaluations are you running? how can people reproduce what you have?
 
36
  ## Come funziona
37
 
38
  ## Reproducibility
39
+ Per riprodurre i risultati scaricate la [repo](https://github.com/EleutherAI/lm-evaluation-harness) eseguite:
40
  lm-eval --model hf --model_args pretrained=<vostro modello> --tasks hellaswag_it,arc_it --device cuda:0 --batch_size auto:2;
41
  lm-eval --model hf --model_args pretrained=<vostro modello>, --tasks m_mmlu_it --num_fewshot 5 --device cuda:0 --batch_size auto:2
42
  """