Dataset Preview
Full Screen
The full dataset viewer is not available (click to read why). Only showing a preview of the rows.
The dataset generation failed
Error code:   DatasetGenerationError
Exception:    ArrowNotImplementedError
Message:      Cannot write struct type 'task_hashes' with no child field to Parquet. Consider adding a dummy child field.
Traceback:    Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1870, in _prepare_split_single
                  writer.write_table(table)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 620, in write_table
                  self._build_writer(inferred_schema=pa_table.schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 441, in _build_writer
                  self.pa_writer = self._WRITER_CLASS(self.stream, schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pyarrow/parquet/core.py", line 1010, in __init__
                  self.writer = _parquet.ParquetWriter(
                File "pyarrow/_parquet.pyx", line 2157, in pyarrow._parquet.ParquetWriter.__cinit__
                File "pyarrow/error.pxi", line 154, in pyarrow.lib.pyarrow_internal_check_status
                File "pyarrow/error.pxi", line 91, in pyarrow.lib.check_status
              pyarrow.lib.ArrowNotImplementedError: Cannot write struct type 'task_hashes' with no child field to Parquet. Consider adding a dummy child field.
              
              During handling of the above exception, another exception occurred:
              
              Traceback (most recent call last):
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1886, in _prepare_split_single
                  num_examples, num_bytes = writer.finalize()
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 639, in finalize
                  self._build_writer(self.schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/arrow_writer.py", line 441, in _build_writer
                  self.pa_writer = self._WRITER_CLASS(self.stream, schema)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/pyarrow/parquet/core.py", line 1010, in __init__
                  self.writer = _parquet.ParquetWriter(
                File "pyarrow/_parquet.pyx", line 2157, in pyarrow._parquet.ParquetWriter.__cinit__
                File "pyarrow/error.pxi", line 154, in pyarrow.lib.pyarrow_internal_check_status
                File "pyarrow/error.pxi", line 91, in pyarrow.lib.check_status
              pyarrow.lib.ArrowNotImplementedError: Cannot write struct type 'task_hashes' with no child field to Parquet. Consider adding a dummy child field.
              
              The above exception was the direct cause of the following exception:
              
              Traceback (most recent call last):
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1417, in compute_config_parquet_and_info_response
                  parquet_operations = convert_to_parquet(builder)
                File "/src/services/worker/src/worker/job_runners/config/parquet_and_info.py", line 1049, in convert_to_parquet
                  builder.download_and_prepare(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 924, in download_and_prepare
                  self._download_and_prepare(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1000, in _download_and_prepare
                  self._prepare_split(split_generator, **prepare_split_kwargs)
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1741, in _prepare_split
                  for job_id, done, content in self._prepare_split_single(
                File "/src/services/worker/.venv/lib/python3.9/site-packages/datasets/builder.py", line 1897, in _prepare_split_single
                  raise DatasetGenerationError("An error occurred while generating the dataset") from e
              datasets.exceptions.DatasetGenerationError: An error occurred while generating the dataset

Need help to make the dataset viewer work? Make sure to review how to configure the dataset viewer, and open a discussion for direct support.

results
dict
group_subtasks
dict
configs
dict
versions
dict
n-shot
dict
higher_is_better
dict
n-samples
dict
config
dict
git_hash
string
date
float64
pretty_env_info
string
transformers_version
string
upper_git_hash
null
tokenizer_pad_token
sequence
tokenizer_eos_token
sequence
tokenizer_bos_token
sequence
eot_token_id
int64
max_length
int64
task_hashes
dict
model_source
string
model_name
string
model_name_sanitized
string
system_instruction
null
system_instruction_sha
null
fewshot_as_multiturn
bool
chat_template
null
chat_template_sha
null
start_time
float64
end_time
float64
total_evaluation_time_seconds
string
{ "leaderboard-fr": { " ": " ", "alias": "leaderboard-fr" }, "leaderboard_bbh_fr": { " ": " ", "alias": " - leaderboard_bbh_fr" }, "leaderboard_bbh_compréhension_de_la_date": { "alias": " - leaderboard_bbh_compréhension_de_la_date", "acc_norm,none": 0.616, "acc_norm_stderr,none": 0.030821679117375447 }, "leaderboard_bbh_compréhension_des_sports": { "alias": " - leaderboard_bbh_compréhension_des_sports", "acc_norm,none": 0.704, "acc_norm_stderr,none": 0.028928939388379697 }, "leaderboard_bbh_comptage_d_objets": { "alias": " - leaderboard_bbh_comptage_d_objets", "acc_norm,none": 0.4, "acc_norm_stderr,none": 0.031046021028253316 }, "leaderboard_bbh_déduction_logique_cinq_objets": { "alias": " - leaderboard_bbh_déduction_logique_cinq_objets", "acc_norm,none": 0.656, "acc_norm_stderr,none": 0.03010450339231644 }, "leaderboard_bbh_déduction_logique_sept_objets": { "alias": " - leaderboard_bbh_déduction_logique_sept_objets", "acc_norm,none": 0.608, "acc_norm_stderr,none": 0.030938207620401222 }, "leaderboard_bbh_déduction_logique_trois_objets": { "alias": " - leaderboard_bbh_déduction_logique_trois_objets", "acc_norm,none": 0.912, "acc_norm_stderr,none": 0.017953084777052892 }, "leaderboard_bbh_désambiguïsation_qa": { "alias": " - leaderboard_bbh_désambiguïsation_qa", "acc_norm,none": 0.54, "acc_norm_stderr,none": 0.031584653891499004 }, "leaderboard_bbh_expressions_booléennes": { "alias": " - leaderboard_bbh_expressions_booléennes", "acc_norm,none": 0.784, "acc_norm_stderr,none": 0.02607865766373279 }, "leaderboard_bbh_formes_géométriques": { "alias": " - leaderboard_bbh_formes_géométriques", "acc_norm,none": 0.428, "acc_norm_stderr,none": 0.031355968923772626 }, "leaderboard_bbh_hyperbate": { "alias": " - leaderboard_bbh_hyperbate", "acc_norm,none": 0.568, "acc_norm_stderr,none": 0.03139181076542941 }, "leaderboard_bbh_jugement_causal": { "alias": " - leaderboard_bbh_jugement_causal", "acc_norm,none": 0.6149732620320856, "acc_norm_stderr,none": 0.03567936280544673 }, "leaderboard_bbh_naviguer": { "alias": " - leaderboard_bbh_naviguer", "acc_norm,none": 0.692, "acc_norm_stderr,none": 0.02925692860650181 }, "leaderboard_bbh_pingouins_sur_une_table": { "alias": " - leaderboard_bbh_pingouins_sur_une_table", "acc_norm,none": 0.7328767123287672, "acc_norm_stderr,none": 0.03674407640319397 }, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": { "alias": " - leaderboard_bbh_raisonnement_sur_les_objets_colorés", "acc_norm,none": 0.748, "acc_norm_stderr,none": 0.027513851933031318 }, "leaderboard_bbh_recommandation_de_film": { "alias": " - leaderboard_bbh_recommandation_de_film", "acc_norm,none": 0.596, "acc_norm_stderr,none": 0.03109668818482536 }, "leaderboard_bbh_sarcasmes": { "alias": " - leaderboard_bbh_sarcasmes", "acc_norm,none": 0.6797752808988764, "acc_norm_stderr,none": 0.03506900770722058 }, "leaderboard_bbh_sophismes_formels": { "alias": " - leaderboard_bbh_sophismes_formels", "acc_norm,none": 0.676, "acc_norm_stderr,none": 0.029658294924545567 }, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": { "alias": " - leaderboard_bbh_suivi_objets_mélangés_cinq_objets", "acc_norm,none": 0.272, "acc_norm_stderr,none": 0.028200088296309975 }, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": { "alias": " - leaderboard_bbh_suivi_objets_mélangés_sept_objets", "acc_norm,none": 0.232, "acc_norm_stderr,none": 0.026750070374865202 }, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": { "alias": " - leaderboard_bbh_suivi_objets_mélangés_trois_objets", "acc_norm,none": 0.328, "acc_norm_stderr,none": 0.029752391824475363 }, "leaderboard_bbh_séquences_temporelles": { "alias": " - leaderboard_bbh_séquences_temporelles", "acc_norm,none": 0.76, "acc_norm_stderr,none": 0.027065293652238982 }, "leaderboard_bbh_toile_de_mensonges": { "alias": " - leaderboard_bbh_toile_de_mensonges", "acc_norm,none": 0.516, "acc_norm_stderr,none": 0.03166998503010743 }, "leaderboard_gpqa_fr": { " ": " ", "alias": " - leaderboard_gpqa_fr" }, "leaderboard_gpqa_diamond_fr": { "alias": " - leaderboard_gpqa_diamond_fr", "acc_norm,none": 0.41116751269035534, "acc_norm_stderr,none": 0.035146108240906845 }, "leaderboard_gpqa_extended_fr": { "alias": " - leaderboard_gpqa_extended_fr", "acc_norm,none": 0.37937384898710863, "acc_norm_stderr,none": 0.020842465330545942 }, "leaderboard_gpqa_main_fr": { "alias": " - leaderboard_gpqa_main_fr", "acc_norm,none": 0.38927738927738925, "acc_norm_stderr,none": 0.023568378520011615 }, "leaderboard_ifeval_fr": { "alias": " - leaderboard_ifeval_fr", "prompt_level_strict_acc,none": 0.036893203883495145, "prompt_level_strict_acc_stderr,none": 0.008314360483782974, "inst_level_strict_acc,none": 0.2894135567402894, "inst_level_strict_acc_stderr,none": "N/A", "prompt_level_loose_acc,none": 0.04271844660194175, "prompt_level_loose_acc_stderr,none": 0.008919612993674319, "inst_level_loose_acc,none": 0.2962680883472963, "inst_level_loose_acc_stderr,none": "N/A" }, "leaderboard_math_hard_fr": { " ": " ", "alias": " - leaderboard_math_hard_fr" }, "leaderboard_math_algebra_hard_fr": { "alias": " - leaderboard_math_algebra_hard_fr", "exact_match,none": 0.5285714285714286, "exact_match_stderr,none": 0.026720653691913565 }, "leaderboard_math_counting_and_prob_hard_fr": { "alias": " - leaderboard_math_counting_and_prob_hard_fr", "exact_match,none": 0.33163265306122447, "exact_match_stderr,none": 0.03371467279183505 }, "leaderboard_math_geometry_hard_fr": { "alias": " - leaderboard_math_geometry_hard_fr", "exact_match,none": 0.22815533980582525, "exact_match_stderr,none": 0.029309157873241655 }, "leaderboard_math_num_theory_hard_fr": { "alias": " - leaderboard_math_num_theory_hard_fr", "exact_match,none": 0.35944700460829493, "exact_match_stderr,none": 0.03264886529467325 }, "leaderboard_math_prealgebra_hard_fr": { "alias": " - leaderboard_math_prealgebra_hard_fr", "exact_match,none": 0.6637168141592921, "exact_match_stderr,none": 0.04464110901335504 }, "leaderboard_math_precalculus_hard_fr": { "alias": " - leaderboard_math_precalculus_hard_fr", "exact_match,none": 0.15476190476190477, "exact_match_stderr,none": 0.03969926975692873 }, "leaderboard_mmlu_fr": { "alias": " - leaderboard_mmlu_fr", "acc,none": 0.7177040307648483, "acc_stderr,none": 0.0037986214085780423 }, "leaderboard_musr_fr": { " ": " ", "alias": " - leaderboard_musr_fr" }, "leaderboard_musr_murder_mysteries_fr": { "alias": " - leaderboard_musr_murder_mysteries_fr", "acc_norm,none": 0.492, "acc_norm_stderr,none": 0.03168215643141386 }, "leaderboard_musr_object_placements_fr": { "alias": " - leaderboard_musr_object_placements_fr", "acc_norm,none": 0.2734375, "acc_norm_stderr,none": 0.027912287939448926 }, "leaderboard_musr_team_allocation_fr": { "alias": " - leaderboard_musr_team_allocation_fr", "acc_norm,none": 0.132, "acc_norm_stderr,none": 0.021450980824038166 } }
{ "leaderboard_musr_fr": [ "leaderboard_musr_murder_mysteries_fr", "leaderboard_musr_object_placements_fr", "leaderboard_musr_team_allocation_fr" ], "leaderboard_math_hard_fr": [ "leaderboard_math_algebra_hard_fr", "leaderboard_math_counting_and_prob_hard_fr", "leaderboard_math_geometry_hard_fr", "leaderboard_math_num_theory_hard_fr", "leaderboard_math_prealgebra_hard_fr", "leaderboard_math_precalculus_hard_fr" ], "leaderboard_gpqa_fr": [ "leaderboard_gpqa_diamond_fr", "leaderboard_gpqa_extended_fr", "leaderboard_gpqa_main_fr" ], "leaderboard_bbh_fr": [ "leaderboard_bbh_expressions_booléennes", "leaderboard_bbh_jugement_causal", "leaderboard_bbh_compréhension_de_la_date", "leaderboard_bbh_désambiguïsation_qa", "leaderboard_bbh_sophismes_formels", "leaderboard_bbh_formes_géométriques", "leaderboard_bbh_hyperbate", "leaderboard_bbh_déduction_logique_cinq_objets", "leaderboard_bbh_déduction_logique_sept_objets", "leaderboard_bbh_déduction_logique_trois_objets", "leaderboard_bbh_recommandation_de_film", "leaderboard_bbh_naviguer", "leaderboard_bbh_comptage_d_objets", "leaderboard_bbh_pingouins_sur_une_table", "leaderboard_bbh_raisonnement_sur_les_objets_colorés", "leaderboard_bbh_sarcasmes", "leaderboard_bbh_compréhension_des_sports", "leaderboard_bbh_séquences_temporelles", "leaderboard_bbh_suivi_objets_mélangés_cinq_objets", "leaderboard_bbh_suivi_objets_mélangés_sept_objets", "leaderboard_bbh_suivi_objets_mélangés_trois_objets", "leaderboard_bbh_toile_de_mensonges" ], "leaderboard-fr": [ "leaderboard_mmlu_fr", "leaderboard_bbh_fr", "leaderboard_gpqa_fr", "leaderboard_math_hard_fr", "leaderboard_ifeval_fr", "leaderboard_musr_fr" ] }
{ "leaderboard_bbh_compréhension_de_la_date": { "task": "leaderboard_bbh_compréhension_de_la_date", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "compréhension_de_la_date", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)" ], "description": "Déduire la date à partir du contexte.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Aujourd'hui, c'est la veille de Noël de 1937. Quelle est la date il y a 10 jours en MM/JJ/AAAA ?\n\nOptions :\n\n(A) 14/12/2026\n\n(B) 14/12/1950\n\n(C) 14/12/2007\n\n(D) 14/12/1937\n\n(E) 14/07/1938\n\n(F) 14/12/1988\n", "target": "(D)" }, { "input": "Demain, nous serons le 12/11/2019. Quelle est la date d'il y a un an à partir d'aujourd'hui en MM/JJ/AAAA ?\n\nOptions :\n\n(A) 04/09/2018\n\n(B) 11/11/2018\n\n(C) 25/08/2018\n\n(D) 02/11/2018\n\n(E) 04/11/2018\n", "target": "(B)" }, { "input": "Jane et John se sont mariés le 2 janvier 1958. Aujourd'hui, c'est leur 5e anniversaire. Quelle est la date de demain en MM/JJ/AAAA ?\n\nOptions :\n\n(A) 11/01/1961\n\n(B) 03/01/1963\n\n(C) 18/01/1961\n\n(D) 14/10/1960\n\n(E) 03/01/1982\n\n(F) 03/12/1960\n", "target": "(B)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_compréhension_des_sports": { "task": "leaderboard_bbh_compréhension_des_sports", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "compréhension_des_sports", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "Oui", "Non" ], "description": "Déterminez si une phrase artificiellement construite en rapport avec le sport est plausible ou Non.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "La phrase suivante est-elle plausible ? \"Bam Adebayo a marqué un layup inversé lors de la finale de la Conférence Ouest.\"", "target": "Oui" }, { "input": "La phrase suivante est-elle plausible ? \"Santi Cazorla a marqué un touchdown.\"", "target": "Non" }, { "input": "La phrase suivante est-elle plausible ? \"DeMar DeRozan a été sanctionné pour goaltending.\"", "target": "Oui" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_comptage_d_objets": { "task": "leaderboard_bbh_comptage_d_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "comptage_d_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "0", "1", "2", "3", "4", "5", "6", "7", "8", "9", "10", "11", "12", "13", "14", "15", "16", "17", "18" ], "description": "Questions qui impliquent d'énumérer des objets et de demander au modèle de les compter.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "J'ai une mûre, une clarinette, une nectarine, une prune, une fraise, une banane,\nune flûte, une orange et un violon. Combien de fruits ai-je ?\n", "target": "6" }, { "input": "J'ai une orange, une framboise, deux pêches, une mûre, une pomme, un raisin,\nune nectarine et trois prunes. Combien de fruits ai-je ?\n", "target": "11" }, { "input": "J'ai une tête de laitue, une tête de brocoli, un oignon, une branche de céleri,\ndeux carottes, une gousse d'ail et une patate douce. Combien de légumes ai-je ?\n", "target": "8" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_déduction_logique_cinq_objets": { "task": "leaderboard_bbh_déduction_logique_cinq_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "déduction_logique_cinq_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)" ], "description": "Une tâche de déduction logique qui nécessite de déduire l'ordre d'une séquence d'objets.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nDans un tournoi de golf, il y avait trois golfeurs : Amy, Eli et Eve. Eve a terminé\ndevant Amy. Eli a terminé derrière Amy.\n\nOptions :\n\n(A) Amy a terminé dernière\n\n(B) Eli a terminé dernier\n\n(C) Eve a terminé dernière\n", "target": "(B)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre blanc, un livre vert et un livre\norange. Le livre vert est à droite du livre blanc. Le livre orange est tout à droite.\n\nOptions :\n\n(A) Le livre blanc est tout à gauche\n\n(B) Le livre vert est tout à gauche\n\n(C) Le livre orange est tout à gauche\n", "target": "(A)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre rouge, un livre gris et un livre blanc.\nLe livre blanc est à gauche du livre gris. Le livre rouge est le deuxième en partant\nde la gauche.\n\nOptions :\n\n(A) Le livre rouge est tout à gauche\n\n(B) Le livre gris est tout à gauche\n\n(C) Le livre blanc est tout à gauche\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_déduction_logique_sept_objets": { "task": "leaderboard_bbh_déduction_logique_sept_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "déduction_logique_sept_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)", "(G)" ], "description": "Une tâche de déduction logique qui nécessite de déduire l'ordre d'une séquence d'objets.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nDans un tournoi de golf, il y avait trois golfeurs : Amy, Eli et Eve. Eve a terminé\ndevant Amy. Eli a terminé derrière Amy.\n\nOptions :\n\n(A) Amy a terminé dernière\n\n(B) Eli a terminé dernier\n\n(C) Eve a terminé dernière\n", "target": "(B)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre blanc, un livre vert et un livre\norange. Le livre vert est à droite du livre blanc. Le livre orange est tout à droite.\n\nOptions :\n\n(A) Le livre blanc est tout à gauche\n\n(B) Le livre vert est tout à gauche\n\n(C) Le livre orange est tout à gauche\n", "target": "(A)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre rouge, un livre gris et un livre blanc.\nLe livre blanc est à gauche du livre gris. Le livre rouge est le deuxième en partant\nde la gauche.\n\nOptions :\n\n(A) Le livre rouge est tout à gauche\n\n(B) Le livre gris est tout à gauche\n\n(C) Le livre blanc est tout à gauche\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_déduction_logique_trois_objets": { "task": "leaderboard_bbh_déduction_logique_trois_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "déduction_logique_trois_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)" ], "description": "Une tâche de déduction logique qui nécessite de déduire l'ordre d'une séquence d'objets.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nDans un tournoi de golf, il y avait trois golfeurs : Amy, Eli et Eve. Eve a terminé\ndevant Amy. Eli a terminé derrière Amy.\n\nOptions :\n\n(A) Amy a terminé dernière\n\n(B) Eli a terminé dernier\n\n(C) Eve a terminé dernière\n", "target": "(B)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre blanc, un livre vert et un livre\norange. Le livre vert est à droite du livre blanc. Le livre orange est tout à droite.\n\nOptions :\n\n(A) Le livre blanc est tout à gauche\n\n(B) Le livre vert est tout à gauche\n\n(C) Le livre orange est tout à gauche\n", "target": "(A)" }, { "input": "Les paragraphes suivants décrivent chacun un ensemble de trois objets disposés\ndans un ordre fixe. Les déclarations sont logiquement cohérentes dans chaque paragraphe.\nSur une étagère, il y a trois livres : un livre rouge, un livre gris et un livre blanc.\nLe livre blanc est à gauche du livre gris. Le livre rouge est le deuxième en partant\nde la gauche.\n\nOptions :\n\n(A) Le livre rouge est tout à gauche\n\n(B) Le livre gris est tout à gauche\n\n(C) Le livre blanc est tout à gauche\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_désambiguïsation_qa": { "task": "leaderboard_bbh_désambiguïsation_qa", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "désambiguïsation_qa", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)" ], "description": "Clarifiez le sens des phrases avec des pronoms ambigus.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Dans les phrases suivantes, expliquez l'antécédent du pronom (à quoi le pronom\nfait référence), ou indiquez que c'est ambigu.\n\nPhrase : Le chef a dit au conseiller qu'ils ont pris un jour de congé.\n\nOptions :\n\n(A) Le chef a pris un jour de congé\n\n(B) Le conseiller a pris un jour de congé\n\n(C) Ambigu\n", "target": "(A)" }, { "input": "Dans les phrases suivantes, expliquez l'antécédent du pronom (à quoi le pronom\nfait référence), ou indiquez que c'est ambigu.\n\nPhrase : Le manager a envoyé un message au secrétaire, mais il n'a pas encore répondu.\n\nOptions :\n\n(A) Le secrétaire n'a pas encore répondu\n\n(B) Le manager n'a pas encore répondu\n\n(C) Ambigu\n", "target": "(A)" }, { "input": "Dans les phrases suivantes, expliquez l'antécédent du pronom (à quoi le pronom\nfait référence), ou indiquez que c'est ambigu.\n\nPhrase : Bailey prévoit de rencontrer le directeur dans son bureau.\n\nOptions :\n\n(A) Ce sera le bureau de Bailey\n\n(B) Ce sera le bureau du directeur\n\n(C) Ambigu\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_expressions_booléennes": { "task": "leaderboard_bbh_expressions_booléennes", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "expressions_booléennes", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "Incorrect", "Vrai" ], "description": "Évaluez le résultat d'une expression booléenne aléatoire.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "pas ( ( pas pas Vrai ) ) est", "target": "Incorrect" }, { "input": "Vrai et Faux et pas Vrai et Vrai est", "target": "Incorrect" }, { "input": "pas pas ( pas ( Faux ) ) est", "target": "Vrai" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_formes_géométriques": { "task": "leaderboard_bbh_formes_géométriques", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "formes_géométriques", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)", "(G)", "(H)", "(I)", "(J)", "(K)" ], "description": "Nommez des formes géométriques à partir de leurs chemins SVG.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Cet élément de chemin SVG <path d=\"M 31.00,73.00 L 32.00,59.00 L 44.00,50.00 L 49.00,41.00 L 64.00,37.00 L 71.00,55.00 L 64.00,76.00 L 52.00,61.00 L 31.00,73.00\"/> dessine un(e)\nOptions :\n(A) cercle\n(B) heptagone\n(C) hexagone\n(D) cerf-volant\n(E) ligne\n(F) octogone\n(G) pentagone\n(H) rectangle\n(I) secteur\n(J) triangle", "target": "(F)" }, { "input": "Cet élément de chemin SVG <path d=\"M 14.19,26.04 L 51.43,39.21 L 58.44,36.69 L 56.63,30.17 L 48.53,26.66 L 14.19,26.04\"/> dessine un(e)\nOptions :\n(A) cercle\n(B) heptagone\n(C) hexagone\n(D) cerf-volant\n(E) ligne\n(F) octogone\n(G) pentagone\n(H) rectangle\n(I) secteur\n(J) triangle", "target": "(G)" }, { "input": "Cet élément de chemin SVG <path d=\"M 41.00,43.00 L 37.00,34.00 L 41.00,33.00 L 45.00,34.00 L 41.00,43.00\"/> dessine un(e)\nOptions :\n(A) cercle\n(B) heptagone\n(C) hexagone\n(D) cerf-volant\n(E) ligne\n(F) octogone\n(G) pentagone\n(H) rectangle\n(I) secteur\n(J) triangle", "target": "(D)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_hyperbate": { "task": "leaderboard_bbh_hyperbate", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "hyperbate", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)" ], "description": "Ordonnez correctement les adjectifs dans des phrases en anglais.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Quelle phrase a le bon ordre des adjectifs :\n\nOptions :\n\n(A) bateau en caoutchouc terrible\n\n(B) terrible bateau en caoutchouc\n", "target": "(B)" }, { "input": "Quelle phrase a le bon ordre des adjectifs :\n\nOptions :\n\n(A) petit bateau d'exercice brésilien répugnant\n\n(B) brésilien répugnant bateau d'exercice petit\n", "target": "(A)" }, { "input": "Quelle phrase a le bon ordre des adjectifs :\n\nOptions :\n\n(A) chaussure carrée merveilleuse bleu or\n\n(B) merveilleuse chaussure carrée bleu or\n", "target": "(B)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_jugement_causal": { "task": "leaderboard_bbh_jugement_causal", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "jugement_causal", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "Oui", "Non" ], "description": "Répondez aux questions sur l'attribution causale.", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Comment une personne typique répondrait-elle à chacune des questions suivantes sur la causalité ?\n\nFrank T. avait un conflit de longue date avec son voisin à propos d'un morceau\nde terrain et un jour, il a décidé de tirer sur son voisin dans le corps.\nFrank T. n'avait aucune expérience avec les armes à feu, sa main a glissé sur\nle canon de l'arme, et le tir est parti dans une direction imprévue.\nNéanmoins, la balle a ricoché sur un gros rocher à plusieurs mètres de là et\na touché le corps du voisin, causant des blessures importantes. Frank T. a-t-il\nintentionnellement tiré sur son voisin dans le corps ?\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Non" }, { "input": "Comment une personne typique répondrait-elle à chacune des questions suivantes sur la causalité ?\n\nSuzy et Billy travaillent sur un projet très important pour la sécurité de notre\nnation. Leur patron leur dit à tous les deux : \"Assurez-vous d'être ici\nexactement à 9h00. Il est absolument essentiel que vous arriviez à cette heure.\"\nBilly et Suzy arrivent tous les deux à 9h00. Il se trouve qu'un détecteur de\nmouvement avait été installé dans la pièce où ils sont arrivés. Le détecteur de\nmouvement était configuré pour se déclencher si au moins une personne apparaissait\ndans la pièce en même temps. Le détecteur de mouvement s'est donc déclenché.\nBilly a-t-il causé le déclenchement du détecteur de mouvement ?\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Oui" }, { "input": "Comment une personne typique répondrait-elle à chacune des questions suivantes sur la causalité ?\n\nGeorge et sa sœur Lena se retrouvent chez leurs parents pour Thanksgiving.\nTandis que George vient d'entrer en faculté de médecine, Lena est mécontente\nde son mariage et a récemment perdu son emploi. Au cours de la journée, George\net Lena se disputent à plusieurs reprises. Plus tard dans l'après-midi, ils\njouent à un jeu de fléchettes. Ils se partagent les deux premiers matchs, et\nle troisième est serré jusqu'à la fin. Le gagnant sera déterminé par le dernier\ntir de George. S'il vise une zone de points élevés, il gagne ; s'il vise une\nzone de points faibles, Lena gagne. George pense au moment difficile que Lena\ntraverse et il veut vraiment la laisser gagner. Il vise la zone de points\nfaibles. Il prépare son tir, et la fléchette atterrit dans la zone de points\nfaibles. Après son tir, Lena gagne le jeu et est très heureuse. George a-t-il\nintentionnellement visé la zone de points faibles ?\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Oui" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_naviguer": { "task": "leaderboard_bbh_naviguer", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "naviguer", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "Oui", "Non" ], "description": "Étant donné une série d'instructions de navigation, déterminez si l'on revient au point de départ.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Si vous suivez ces instructions, revenez-vous au point de départ ?\nTournez à gauche. Faites demi-tour. Tournez à gauche. Faites 7 pas. Faites 2 pas. Faites 4 pas.\nFaites 8 pas.\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Non" }, { "input": "Si vous suivez ces instructions, revenez-vous au point de départ ?\nFaites demi-tour. Faites 1 pas. Faites 6 pas. Faites demi-tour. Faites 6 pas. Faites 9 pas.\nFaites 1 pas.\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Non" }, { "input": "Si vous suivez ces instructions, revenez-vous au point de départ ?\nFaites toujours face vers l'avant. Faites 2 pas à droite. Faites 9 pas à gauche. Faites 7 pas à droite.\n\nOptions :\n\n- Oui\n\n- Non\n", "target": "Oui" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_pingouins_sur_une_table": { "task": "leaderboard_bbh_pingouins_sur_une_table", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "pingouins_sur_une_table", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)" ], "description": "Répondez aux questions sur une table de pingouins et leurs attributs.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Voici une table où la première ligne est un en-tête et chaque ligne suivante\nreprésente un pingouin : nom, âge, taille (cm), poids (kg)\n\nLouis, 7, 50, 11\nBernard, 5, 80, 13\nVincent, 9, 60, 11\nGwen, 8, 70, 15\n\nPar exemple : l'âge de Louis est 7 ans, le poids de Gwen est de 15 kg, la taille de Bernard est de 80 cm. \nNous ajoutons maintenant un pingouin à la table :\n\nJames, 12, 90, 12\n\nCombien de pingouins ont moins de 8 ans ?\n\nOptions :\n\n(A) 1\n\n(B) 2\n\n(C) 3\n\n(D) 4\n\n(E) 5\n", "target": "(B)" }, { "input": "Voici une table où la première ligne est un en-tête et chaque ligne suivante\nreprésente un pingouin : nom, âge, taille (cm), poids (kg)\n\nLouis, 7, 50, 11\nBernard, 5, 80, 13\nVincent, 9, 60, 11\nGwen, 8, 70, 15\n\nPar exemple : l'âge de Louis est de 7 ans, le poids de Gwen est de 15 kg, la taille de Bernard est de 80 cm. \nQuel est le pingouin le plus jeune ?\n\nOptions :\n\n(A) Louis\n\n(B) Bernard\n\n(C) Vincent\n\n(D) Gwen\n\n(E) James\n", "target": "(B)" }, { "input": "Voici une table où la première ligne est un en-tête et chaque ligne suivante\nreprésente un pingouin : nom, âge, taille (cm), poids (kg)\n\nLouis, 7, 50, 11\nBernard, 5, 80, 13\nVincent, 9, 60, 11\nGwen, 8, 70, 15\n\nPar exemple : l'âge de Louis est de 7 ans, le poids de Gwen est de 15 kg, la taille de Bernard est de 80 cm. \nQuel est le nom du deuxième pingouin trié par ordre alphabétique ?\n\nOptions :\n\n(A) Louis\n\n(B) Bernard\n\n(C) Vincent\n\n(D) Gwen\n\n(E) James\n", "target": "(D)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": { "task": "leaderboard_bbh_raisonnement_sur_les_objets_colorés", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "raisonnement_sur_les_objets_colorés", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)", "(G)", "(H)", "(I)", "(J)", "(K)", "(L)", "(M)", "(N)", "(O)", "(P)", "(Q)", "(R)" ], "description": "Répondez à des questions extrêmement simples sur les couleurs des objets sur une surface.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Sur la table de chevet, il y a un crayon rouge, une tasse violette, un porte-clés\nbordeaux, un ours en peluche fuchsia, une assiette noire et une balle anti-stress bleue.\nDe quelle couleur est la balle anti-stress ?\n\nOptions :\n\n(A) rouge\n\n(B) orange\n\n(C) jaune\n\n(D) vert\n\n(E) bleu\n\n(F) marron\n\n(G) magenta\n\n(H) fuchsia\n\n(I) mauve\n\n(J) sarcelle\n\n(K) turquoise\n\n(L) bordeaux\n\n(M) argent\n\n(N) or\n\n(O) noir\n\n(P) gris\n\n(Q) violet\n\n(R) rose\n", "target": "(E)" }, { "input": "Sur la table, vous voyez un ensemble d'objets disposés en ligne : un trombone\nviolet, une balle anti-stress rose, un porte-clés marron, un chargeur scrunchiephone\nvert, un hand spinner mauve et un stylo bordeaux. Quelle est la couleur de l'objet\ndirectement à droite de la balle anti-stress ?\n\nOptions :\n\n(A) rouge\n\n(B) orange\n\n(C) jaune\n\n(D) vert\n\n(E) bleu\n\n(F) marron\n\n(G) magenta\n\n(H) fuchsia\n\n(I) mauve\n\n(J) sarcelle\n\n(K) turquoise\n\n(L) bordeaux\n\n(M) argent\n\n(N) or\n\n(O) noir\n\n(P) gris\n\n(Q) violet\n\n(R) rose\n", "target": "(F)" }, { "input": "Sur la table de chevet, vous voyez les objets suivants disposés en ligne : une assiette\nsarcelle, un porte-clés bordeaux, un chargeur scrunchiephone jaune, une tasse orange,\nun carnet rose et une tasse grise. Combien d'objets non-orange voyez-vous à gauche\nde l'objet sarcelle ?\n\nOptions :\n\n(A) zéro\n\n(B) un\n\n(C) deux\n\n(D) trois\n\n(E) quatre\n\n(F) cinq\n\n(G) six\n", "target": "(A)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_recommandation_de_film": { "task": "leaderboard_bbh_recommandation_de_film", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "recommandation_de_film", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)" ], "description": "Recommandez des films similaires à la liste de films donnée.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Trouvez un film similaire à Star Wars Episode IV - Un nouvel espoir, Indiana\nJones et la dernière croisade, Star Wars Episode V - L'Empire contre-attaque,\nThe Big Lebowski :\n\nOptions :\n\n(A) Tetsuo\n\n(B) the Ironman\n\n(C) The Princess Bride\n\n(D) The Barkley Marathons The Race That Eats Its Young\n\n(E) Bug\n", "target": "(C)" }, { "input": "Trouvez un film similaire à Twister, Le Silence des agneaux, Independence\nDay, Braveheart :\n\nOptions :\n\n(A) Ils tirent sur les chevaux\n\n(B) N'est-ce pas\n\n(C) Forrest Gump\n\n(D) The Salton Sea\n\n(E) Extreme Days\n", "target": "(C)" }, { "input": "Trouvez un film similaire à Minority Report, Total Recall, Vice-versa,\nForrest Gump :\n\nOptions :\n\n(A) Phénomènes\n\n(B) Lilting\n\n(C) Catwoman\n\n(D) Edge of Tomorrow\n", "target": "(D)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_sarcasmes": { "task": "leaderboard_bbh_sarcasmes", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "sarcasmes", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)" ], "description": "Déterminez laquelle des deux phrases est sarcastique. Selon le dictionnaire de l'Université de Cambridge, le sarcasme est \"l'utilisation de remarques qui signifient clairement le contraire de ce qu'elles disent, faites pour blesser les sentiments de quelqu'un ou pour critiquer quelque chose de manière humoristique.\" Les phrases sarcastiques contiennent souvent des énonciations satiriques ou ironiques, des hyperboles, des remarques ambivalentes ou spirituelles.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Quelle déclaration est sarcastique ?\n\nOptions :\n\n(A) Oui, parce que s'intéresser à des sujets et faire des recherches actives est une énorme perte de temps\n\n(B) Oui, parce que s'intéresser à des sujets et faire des recherches actives est une grande affaire\n", "target": "(A)" }, { "input": "Quelle déclaration est sarcastique ?\n\nOptions :\n\n(A) Personne ne va être en désaccord avec vous là-dessus. Éviter les attaques ad hominem aide vraiment votre cause\n\n(B) Personne ne va être en désaccord avec vous là-dessus. Les attaques ad hominem aident vraiment votre cause\n", "target": "(B)" }, { "input": "Quelle déclaration est sarcastique ?\n\nOptions :\n\n(A) Cohérence dans les sanctions de la ligue ? Qu'est-ce que vous pensez que cela doit être, de la politique ?\n\n(B) Cohérence dans les sanctions de la ligue ? Qu'est-ce que vous pensez que cela doit être, de la morale ?\n", "target": "(A)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_sophismes_formels": { "task": "leaderboard_bbh_sophismes_formels", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "sophismes_formels", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "valide", "invalidee" ], "description": "Distinguez les arguments déductivement valides des sophismes formels.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "\"Il n'est pas toujours facile de voir qui est lié à qui -- et de quelle manière.\nL'argument suivant porte sur cette question : Pour commencer, Lesley est un\nami proche de Fernando. De plus, être un ami proche de Fernando ou un camarade\nde classe de Lowell est suffisant pour être arrière-grand-père de Leroy. Il\ns'ensuit que Lesley est arrière-grand-père de Leroy.\"\n\nL'argument, étant donné les prémisses explicitement énoncées, est-il déductivement\nvalide ou invalidee ?\n\nOptions :\n\n- valide\n\n- invalidee\n", "target": "valide" }, { "input": "\"Il n'est pas toujours facile de voir qui est lié à qui -- et de quelle manière.\nL'argument suivant porte sur cette question : Quiconque n'est pas arrière-grand-père\nde Clyde est le demi-frère de Brian. Être un ancêtre de Dana est suffisant\npour ne pas être arrière-grand-père de Clyde. Nous pouvons conclure : Tout\nle monde qui est un ancêtre de Dana est aussi le demi-frère de Brian.\"\n\nL'argument, étant donné les prémisses explicitement énoncées, est-il déductivement\nvalide ou invalidee ?\n\nOptions :\n\n- valide\n\n- invalidee\n", "target": "valide" }, { "input": "\"Il n'est pas toujours facile de comprendre qui consomme quels produits.\nL'argument suivant porte sur cette question : Tout utilisateur peu fréquent\nde shampoing Paul Mitchell est soit un consommateur rare de shampoing Nioxin,\nsoit un acheteur fidèle de savon Caress, ou les deux. Aucun consommateur régulier\nde savon Lush n'est un consommateur rare de shampoing Nioxin et, en même temps,\nun acheteur fidèle de savon Caress. Il s'ensuit que quiconque est un utilisateur\npeu fréquent de shampoing Paul Mitchell n'est pas un consommateur régulier\nde savon Lush.\"\n\nL'argument, étant donné les prémisses explicitement énoncées, est-il déductivement\nvalide ou invalidee ?\n\nOptions :\n\n- valide\n\n- invalidee\n", "target": "invalidee" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": { "task": "leaderboard_bbh_suivi_objets_mélangés_cinq_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "suivi_objets_mélangés_cinq_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)" ], "description": "Une tâche qui nécessite de déterminer les positions finales d'un ensemble d'objets, étant donné leurs positions initiales et une description d'une séquence d'échanges.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle jaune, Bob a une balle bleue et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Claire et Alice échangent leurs balles. Ensuite, Alice et Bob échangent leurs balles. Enfin, Claire et Bob échangent leurs balles. À la fin du jeu, Bob a la\n\nOptions :\n\n(A) balle jaune\n\n(B) balle bleue\n\n(C) balle rose\n", "target": "(A)" }, { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle blanche, Bob a une balle violette et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Bob et Alice échangent leurs balles. Ensuite, Bob et Claire échangent leurs balles. Enfin, Bob et Alice échangent leurs balles. À la fin du jeu, Alice a la\n\nOptions :\n\n(A) balle blanche\n\n(B) balle violette\n\n(C) balle rose\n", "target": "(C)" }, { "input": "Alice, Bob et Claire sont des danseurs à une danse carrée. Au début d'une chanson, ils ont chacun un partenaire : Alice danse avec Lola, Bob danse avec Rodrigo, et Claire danse avec Patrick.\n\nPendant la chanson, les danseurs changent souvent de partenaires. D'abord, Alice et Bob échangent leurs partenaires. Ensuite, Claire et Bob échangent leurs partenaires. Enfin, Bob et Alice échangent leurs partenaires. À la fin de la danse, Alice danse avec\n\nOptions :\n\n(A) Lola\n\n(B) Rodrigo\n\n(C) Patrick\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": { "task": "leaderboard_bbh_suivi_objets_mélangés_sept_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "suivi_objets_mélangés_sept_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)", "(E)", "(F)", "(G)" ], "description": "Une tâche qui nécessite de déterminer les positions finales d'un ensemble d'objets, étant donné leurs positions initiales et une description d'une séquence d'échanges.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle jaune, Bob a une balle bleue et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Claire et Alice échangent leurs balles. Ensuite, Alice et Bob échangent leurs balles. Enfin, Claire et Bob échangent leurs balles. À la fin du jeu, Bob a la\n\nOptions :\n\n(A) balle jaune\n\n(B) balle bleue\n\n(C) balle rose\n", "target": "(A)" }, { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle blanche, Bob a une balle violette et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Bob et Alice échangent leurs balles. Ensuite, Bob et Claire échangent leurs balles. Enfin, Bob et Alice échangent leurs balles. À la fin du jeu, Alice a la\n\nOptions :\n\n(A) balle blanche\n\n(B) balle violette\n\n(C) balle rose\n", "target": "(C)" }, { "input": "Alice, Bob et Claire sont des danseurs à une danse carrée. Au début d'une chanson, ils ont chacun un partenaire : Alice danse avec Lola, Bob danse avec Rodrigo, et Claire danse avec Patrick.\n\nPendant la chanson, les danseurs changent souvent de partenaires. D'abord, Alice et Bob échangent leurs partenaires. Ensuite, Claire et Bob échangent leurs partenaires. Enfin, Bob et Alice échangent leurs partenaires. À la fin de la danse, Alice danse avec\n\nOptions :\n\n(A) Lola\n\n(B) Rodrigo\n\n(C) Patrick\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": { "task": "leaderboard_bbh_suivi_objets_mélangés_trois_objets", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "suivi_objets_mélangés_trois_objets", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)" ], "description": "Une tâche qui nécessite de déterminer les positions finales d'un ensemble d'objets, étant donné leurs positions initiales et une description d'une séquence d'échanges.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle jaune, Bob a une balle bleue et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Claire et Alice échangent leurs balles. Ensuite, Alice et Bob échangent leurs balles. Enfin, Claire et Bob échangent leurs balles. À la fin du jeu, Bob a la\n\nOptions :\n\n(A) balle jaune\n\n(B) balle bleue\n\n(C) balle rose\n", "target": "(A)" }, { "input": "Alice, Bob et Claire jouent à un jeu. Au début du jeu, ils tiennent chacun une balle : Alice a une balle blanche, Bob a une balle violette et Claire a une balle rose.\n\nAu fur et à mesure que le jeu progresse, des paires de joueurs échangent leurs balles. D'abord, Bob et Alice échangent leurs balles. Ensuite, Bob et Claire échangent leurs balles. Enfin, Bob et Alice échangent leurs balles. À la fin du jeu, Alice a la\n\nOptions :\n\n(A) balle blanche\n\n(B) balle violette\n\n(C) balle rose\n", "target": "(C)" }, { "input": "Alice, Bob et Claire sont des danseurs à une danse carrée. Au début d'une chanson, ils ont chacun un partenaire : Alice danse avec Lola, Bob danse avec Rodrigo, et Claire danse avec Patrick.\n\nPendant la chanson, les danseurs changent souvent de partenaires. D'abord, Alice et Bob échangent leurs partenaires. Ensuite, Claire et Bob échangent leurs partenaires. Enfin, Bob et Alice échangent leurs partenaires. À la fin de la danse, Alice danse avec\n\nOptions :\n\n(A) Lola\n\n(B) Rodrigo\n\n(C) Patrick\n", "target": "(C)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_séquences_temporelles": { "task": "leaderboard_bbh_séquences_temporelles", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "séquences_temporelles", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)" ], "description": "Description de la tâche : Répondez aux questions sur les moments où certains événements ont pu se produire.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Aujourd'hui, Emily est allée au musée. Entre quelles heures aurait-elle pu y aller ?\n\nNous savons que :\n\nEmily s'est réveillée à 13h.\n\nElizabeth a vu Emily lire à la bibliothèque de 14h à 16h.\n\nJessica a vu Emily regarder un film au cinéma de 16h à 17h.\n\nLeslie a vu Emily attendre à l'aéroport de 17h à 18h.\n\nWilliam a vu Emily acheter des vêtements au centre commercial de 18h à 19h.\n\nLe musée était fermé après 19h.\n\nEntre quelles heures Emily aurait-elle pu aller au musée ?\n\nOptions :\n\n(A) 13h à 14h\n\n(B) 18h à 19h\n\n(C) 17h à 18h\n\n(D) 14h à 16h\n", "target": "(A)" }, { "input": "Aujourd'hui, Elizabeth est allée au parc d'attractions. Entre quelles heures aurait-elle pu y aller ?\n\nNous savons que :\n\nElizabeth s'est réveillée à 7h.\n\nDavid a vu Elizabeth réparer son ordinateur au magasin d'électronique de 13h à 14h.\n\nSarah a vu Elizabeth jouer au tennis sur le court de tennis de 14h à 15h.\n\nSusan a vu Elizabeth marcher vers la Statue de la Liberté de 15h à 18h.\n\nAndrew a vu Elizabeth prendre des photos près de la tour Eiffel de 18h à 21h.\n\nEmily a vu Elizabeth prendre un café au café de 21h à 22h.\n\nLe parc d'attractions était fermé après 22h.\n\nEntre quelles heures Elizabeth aurait-elle pu aller au parc d'attractions ?\n\nOptions :\n\n(A) 7h à 13h\n\n(B) 21h à 22h\n\n(C) 13h à 14h\n\n(D) 15h à 18h\n", "target": "(A)" }, { "input": "Aujourd'hui, Tiffany est allée à la plage. Entre quelles heures aurait-elle pu y aller ?\n\nNous savons que :\n\nTiffany s'est réveillée à 5h.\n\nBetty a vu Tiffany prendre un café au café de 5h à 6h.\n\nJessica a vu Tiffany travailler au bureau de 6h à 9h.\n\nJohn a vu Tiffany s'étirer au studio de yoga de 9h à 12h.\n\nSean a vu Tiffany s'asseoir sur un toit de 12h à 14h.\n\nSarah a vu Tiffany jouer au tennis sur le court de tennis de 14h à 15h.\n\nLa plage était fermée après 16h.\n\nEntre quelles heures Tiffany aurait-elle pu aller à la plage ?\n\nOptions :\n\n(A) 9h à 12h\n\n(B) 12h à 14h\n\n(C) 5h à 6h\n\n(D) 15h à 16h\n", "target": "(D)" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_bbh_toile_de_mensonges": { "task": "leaderboard_bbh_toile_de_mensonges", "dataset_path": "le-leadboard/bbh-fr", "dataset_name": "toile_de_mensonges", "test_split": "test", "doc_to_text": "Q: {{input}}\nA:", "doc_to_target": "{{target}}", "doc_to_choice": [ "Oui", "Non" ], "description": "Évaluez une fonction booléenne aléatoire exprimée sous forme de problème de mots.\n", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": [ { "input": "Question : Fidel dit la vérité. Jerry dit que Fidel dit la vérité. Vina\ndit que Jerry dit la vérité. Millicent dit que Vina ment. Raymond dit que Millicent\nment. Raymond dit-il la vérité ?\n", "target": "Oui" }, { "input": "Question : Kristian ment. Millie dit que Kristian ment. Maybelle dit que Millie\ndit la vérité. Fidel dit que Maybelle ment. Leda dit que Fidel ment. Leda dit-elle la vérité ?\n", "target": "Oui" }, { "input": "Question : Kristian dit la vérité. Michaela dit que Kristian ment. Raymond\ndit que Michaela dit la vérité. Osvaldo dit que Raymond dit la vérité. Jamey dit\nqu'Osvaldo dit la vérité. Jamey dit-il la vérité ?\n", "target": "Non" } ] }, "num_fewshot": 3, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0 } }, "leaderboard_gpqa_diamond_fr": { "task": "leaderboard_gpqa_diamond_fr", "dataset_path": "le-leadboard/gpqa-fr", "dataset_name": "gpqa_diamond", "training_split": "train", "validation_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc):\n choices = [\n preprocess(doc[\"Incorrect Answer 1\"]),\n preprocess(doc[\"Incorrect Answer 2\"]),\n preprocess(doc[\"Incorrect Answer 3\"]),\n preprocess(doc[\"Correct Answer\"]),\n ]\n\n random.shuffle(choices)\n correct_answer_index = choices.index(preprocess(doc[\"Correct Answer\"]))\n\n out_doc = {\n \"choice1\": choices[0],\n \"choice2\": choices[1],\n \"choice3\": choices[2],\n \"choice4\": choices[3],\n \"answer\": f\"({chr(65 + correct_answer_index)})\",\n }\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "Quelle est la réponse correcte à cette question : {{problem}}\nChoix :\n(A) {{choice1}}\n(B) {{choice2}}\n(C) {{choice3}}\n(D) {{choice4}}\nRéponse : ", "doc_to_target": "answer", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)" ], "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n" }, "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_gpqa_extended_fr": { "task": "leaderboard_gpqa_extended_fr", "dataset_path": "le-leadboard/gpqa-fr", "dataset_name": "gpqa_extended", "training_split": "train", "validation_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc):\n choices = [\n preprocess(doc[\"Incorrect Answer 1\"]),\n preprocess(doc[\"Incorrect Answer 2\"]),\n preprocess(doc[\"Incorrect Answer 3\"]),\n preprocess(doc[\"Correct Answer\"]),\n ]\n\n random.shuffle(choices)\n correct_answer_index = choices.index(preprocess(doc[\"Correct Answer\"]))\n\n out_doc = {\n \"choice1\": choices[0],\n \"choice2\": choices[1],\n \"choice3\": choices[2],\n \"choice4\": choices[3],\n \"answer\": f\"({chr(65 + correct_answer_index)})\",\n }\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "Quelle est la réponse correcte à cette question : {{problem}}\nChoix :\n(A) {{choice1}}\n(B) {{choice2}}\n(C) {{choice3}}\n(D) {{choice4}}\nRéponse : ", "doc_to_target": "answer", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)" ], "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n" }, "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_gpqa_main_fr": { "task": "leaderboard_gpqa_main_fr", "dataset_path": "le-leadboard/gpqa-fr", "dataset_name": "gpqa_main", "training_split": "train", "validation_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc):\n choices = [\n preprocess(doc[\"Incorrect Answer 1\"]),\n preprocess(doc[\"Incorrect Answer 2\"]),\n preprocess(doc[\"Incorrect Answer 3\"]),\n preprocess(doc[\"Correct Answer\"]),\n ]\n\n random.shuffle(choices)\n correct_answer_index = choices.index(preprocess(doc[\"Correct Answer\"]))\n\n out_doc = {\n \"choice1\": choices[0],\n \"choice2\": choices[1],\n \"choice3\": choices[2],\n \"choice4\": choices[3],\n \"answer\": f\"({chr(65 + correct_answer_index)})\",\n }\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "Quelle est la réponse correcte à cette question : {{problem}}\nChoix :\n(A) {{choice1}}\n(B) {{choice2}}\n(C) {{choice3}}\n(D) {{choice4}}\nRéponse : ", "doc_to_target": "answer", "doc_to_choice": [ "(A)", "(B)", "(C)", "(D)" ], "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n" }, "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_ifeval_fr": { "task": "leaderboard_ifeval_fr", "dataset_path": "le-leadboard/IFEval-fr", "test_split": "train", "doc_to_text": "prompt", "doc_to_target": 0, "process_results": "def process_results(doc, results):\n inp = InputExample(\n key=0,\n instruction_id_list=doc[\"categories\"],\n prompt=doc[\"prompt\"],\n kwargs=doc[\"kwargs\"],\n )\n response = results[0]\n out_strict = test_instruction_following_strict(inp, response)\n out_loose = test_instruction_following_loose(inp, response)\n\n return {\n \"prompt_level_strict_acc\": out_strict.follow_all_instructions,\n \"inst_level_strict_acc\": out_strict.follow_instruction_list,\n \"prompt_level_loose_acc\": out_loose.follow_all_instructions,\n \"inst_level_loose_acc\": out_loose.follow_instruction_list,\n }\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n" }, "num_fewshot": 0, "metric_list": [ { "metric": "prompt_level_strict_acc", "aggregation": "mean", "higher_is_better": true }, { "metric": "inst_level_strict_acc", "aggregation": "def agg_inst_level_acc(items):\n flat_items = [item for sublist in items for item in sublist]\n inst_level_acc = sum(flat_items) / len(flat_items)\n return inst_level_acc\n", "higher_is_better": true }, { "metric": "prompt_level_loose_acc", "aggregation": "mean", "higher_is_better": true }, { "metric": "inst_level_loose_acc", "aggregation": "def agg_inst_level_acc(items):\n flat_items = [item for sublist in items for item in sublist]\n inst_level_acc = sum(flat_items) / len(flat_items)\n return inst_level_acc\n", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [], "do_sample": false, "temperature": 0, "max_gen_toks": 1280 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 2 } }, "leaderboard_math_algebra_hard_fr": { "task": "leaderboard_math_algebra_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "algebra", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb6f21440>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_math_counting_and_prob_hard_fr": { "task": "leaderboard_math_counting_and_prob_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "counting_and_probability", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb79fa8e0>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_math_geometry_hard_fr": { "task": "leaderboard_math_geometry_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "geometry", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb79d4ea0>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_math_num_theory_hard_fr": { "task": "leaderboard_math_num_theory_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "number_theory", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb79d4360>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_math_prealgebra_hard_fr": { "task": "leaderboard_math_prealgebra_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "prealgebra", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb8d89620>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_math_precalculus_hard_fr": { "task": "leaderboard_math_precalculus_hard_fr", "dataset_path": "le-leadboard/MATH_LVL5_fr", "dataset_name": "precalculus", "dataset_kwargs": { "trust_remote_code": true }, "training_split": "train", "test_split": "train", "process_docs": "def process_docs(dataset: datasets.Dataset) -> datasets.Dataset:\n def _process_doc(doc: dict) -> dict:\n out_doc = {\n \"problem\": doc[\"problem\"],\n \"solution\": doc[\"solution\"],\n \"answer\": normalize_final_answer(\n remove_boxed(last_boxed_only_string(doc[\"solution\"]))\n ),\n }\n if getattr(doc, \"few_shot\", None) is not None:\n out_doc[\"few_shot\"] = True\n return out_doc\n\n return dataset.map(_process_doc)\n", "doc_to_text": "def doc_to_text(doc: dict) -> str:\n return (\n \"Problème:\\n\"\n + doc[\"problem\"]\n + \"\\n\\n\"\n + \"Veuillez terminer votre solution en écrivant 'Réponse finale : ### [votre réponse]'.\\n\"\n + \"Solution:\\n\"\n )\n", "doc_to_target": "{{answer if few_shot is undefined else solution}}", "process_results": "def process_results(doc: dict, results: List[str]) -> Dict[str, int]:\n candidates = results[0]\n\n unnormalized_answer = get_unnormalized_answer(candidates)\n answer = normalize_final_answer(unnormalized_answer) \n if is_equiv(answer, doc[\"answer\"]):\n retval = 1\n else:\n retval = 0\n\n results = {\n \"exact_match\": retval,\n }\n return results\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n", "samples": "<function list_fewshot_samples at 0x73bfb83191c0>" }, "num_fewshot": 4, "metric_list": [ { "metric": "exact_match", "aggregation": "mean", "higher_is_better": true } ], "output_type": "generate_until", "generation_kwargs": { "until": [ "Problème:" ], "do_sample": false, "temperature": 0, "max_gen_toks": 1024 }, "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_mmlu_fr": { "task": "leaderboard_mmlu_fr", "dataset_path": "le-leadboard/MMMLU-fr", "test_split": "test", "fewshot_split": "test", "doc_to_text": "def doc_to_text(doc):\n doc_to_text = f\"{doc['Question']}\\n\"\n options = [doc['A'],doc['B'],doc['C'],doc['D']]\n for i in range(len(options)):\n doc_to_text += f\"{string.ascii_uppercase[i]}. {options[i]}\\n\"\n\n doc_to_text += \"Réponse:\"\n return doc_to_text\n", "doc_to_target": "Answer", "doc_to_choice": "def doc_to_choice(doc):\n options = [doc['A'],doc['B'],doc['C'],doc['D']]\n return [string.ascii_uppercase[i] for i in range(len(options))]\n", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "fewshot_config": { "sampler": "first_n" }, "num_fewshot": 5, "metric_list": [ { "metric": "acc", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 0.1 } }, "leaderboard_musr_murder_mysteries_fr": { "task": "leaderboard_musr_murder_mysteries_fr", "dataset_path": "le-leadboard/musr-fr", "test_split": "murder_mysteries", "doc_to_text": "def doc_to_text(doc):\n \"\"\"\n Convert a doc to text.\n \"\"\"\n choices = \"\"\n for i, choice in enumerate(doc[\"choices\"]):\n choices += f\"{i+1} - {choice}\\n\"\n\n text = DOC_TO_TEXT.format(\n narrative=doc[\"narrative\"], question=doc[\"question\"], choices=choices\n )\n\n return text\n", "doc_to_target": "{{answer_choice}}", "doc_to_choice": "{{choices}}", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_musr_object_placements_fr": { "task": "leaderboard_musr_object_placements_fr", "dataset_path": "le-leadboard/musr-fr", "test_split": "object_placements", "doc_to_text": "def doc_to_text(doc):\n \"\"\"\n Convert a doc to text.\n \"\"\"\n choices = \"\"\n for i, choice in enumerate(doc[\"choices\"]):\n choices += f\"{i+1} - {choice}\\n\"\n\n text = DOC_TO_TEXT.format(\n narrative=doc[\"narrative\"], question=doc[\"question\"], choices=choices\n )\n\n return text\n", "doc_to_target": "{{answer_choice}}", "doc_to_choice": "{{choices}}", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } }, "leaderboard_musr_team_allocation_fr": { "task": "leaderboard_musr_team_allocation_fr", "dataset_path": "le-leadboard/musr-fr", "test_split": "team_allocation", "doc_to_text": "def doc_to_text(doc):\n \"\"\"\n Convert a doc to text.\n \"\"\"\n choices = \"\"\n for i, choice in enumerate(doc[\"choices\"]):\n choices += f\"{i+1} - {choice}\\n\"\n\n text = DOC_TO_TEXT.format(\n narrative=doc[\"narrative\"], question=doc[\"question\"], choices=choices\n )\n\n return text\n", "doc_to_target": "{{answer_choice}}", "doc_to_choice": "{{choices}}", "description": "", "target_delimiter": " ", "fewshot_delimiter": "\n\n", "num_fewshot": 0, "metric_list": [ { "metric": "acc_norm", "aggregation": "mean", "higher_is_better": true } ], "output_type": "multiple_choice", "repeats": 1, "should_decontaminate": false, "metadata": { "version": 1 } } }
{ "leaderboard_bbh_compréhension_de_la_date": 0, "leaderboard_bbh_compréhension_des_sports": 0, "leaderboard_bbh_comptage_d_objets": 0, "leaderboard_bbh_déduction_logique_cinq_objets": 0, "leaderboard_bbh_déduction_logique_sept_objets": 0, "leaderboard_bbh_déduction_logique_trois_objets": 0, "leaderboard_bbh_désambiguïsation_qa": 0, "leaderboard_bbh_expressions_booléennes": 0, "leaderboard_bbh_formes_géométriques": 0, "leaderboard_bbh_hyperbate": 0, "leaderboard_bbh_jugement_causal": 0, "leaderboard_bbh_naviguer": 0, "leaderboard_bbh_pingouins_sur_une_table": 0, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": 0, "leaderboard_bbh_recommandation_de_film": 0, "leaderboard_bbh_sarcasmes": 0, "leaderboard_bbh_sophismes_formels": 0, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": 0, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": 0, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": 0, "leaderboard_bbh_séquences_temporelles": 0, "leaderboard_bbh_toile_de_mensonges": 0, "leaderboard_gpqa_diamond_fr": 1, "leaderboard_gpqa_extended_fr": 1, "leaderboard_gpqa_main_fr": 1, "leaderboard_ifeval_fr": 2, "leaderboard_math_algebra_hard_fr": 1, "leaderboard_math_counting_and_prob_hard_fr": 1, "leaderboard_math_geometry_hard_fr": 1, "leaderboard_math_num_theory_hard_fr": 1, "leaderboard_math_prealgebra_hard_fr": 1, "leaderboard_math_precalculus_hard_fr": 1, "leaderboard_mmlu_fr": 0.1, "leaderboard_musr_murder_mysteries_fr": 1, "leaderboard_musr_object_placements_fr": 1, "leaderboard_musr_team_allocation_fr": 1 }
{ "leaderboard_bbh_compréhension_de_la_date": 3, "leaderboard_bbh_compréhension_des_sports": 3, "leaderboard_bbh_comptage_d_objets": 3, "leaderboard_bbh_déduction_logique_cinq_objets": 3, "leaderboard_bbh_déduction_logique_sept_objets": 3, "leaderboard_bbh_déduction_logique_trois_objets": 3, "leaderboard_bbh_désambiguïsation_qa": 3, "leaderboard_bbh_expressions_booléennes": 3, "leaderboard_bbh_formes_géométriques": 3, "leaderboard_bbh_hyperbate": 3, "leaderboard_bbh_jugement_causal": 3, "leaderboard_bbh_naviguer": 3, "leaderboard_bbh_pingouins_sur_une_table": 3, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": 3, "leaderboard_bbh_recommandation_de_film": 3, "leaderboard_bbh_sarcasmes": 3, "leaderboard_bbh_sophismes_formels": 3, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": 3, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": 3, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": 3, "leaderboard_bbh_séquences_temporelles": 3, "leaderboard_bbh_toile_de_mensonges": 3, "leaderboard_gpqa_diamond_fr": 0, "leaderboard_gpqa_extended_fr": 0, "leaderboard_gpqa_main_fr": 0, "leaderboard_ifeval_fr": 0, "leaderboard_math_algebra_hard_fr": 4, "leaderboard_math_counting_and_prob_hard_fr": 4, "leaderboard_math_geometry_hard_fr": 4, "leaderboard_math_num_theory_hard_fr": 4, "leaderboard_math_prealgebra_hard_fr": 4, "leaderboard_math_precalculus_hard_fr": 4, "leaderboard_mmlu_fr": 5, "leaderboard_musr_murder_mysteries_fr": 0, "leaderboard_musr_object_placements_fr": 0, "leaderboard_musr_team_allocation_fr": 0 }
{ "leaderboard-fr": { "acc": true, "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true, "acc_norm": true, "exact_match": true }, "leaderboard_bbh_compréhension_de_la_date": { "acc_norm": true }, "leaderboard_bbh_compréhension_des_sports": { "acc_norm": true }, "leaderboard_bbh_comptage_d_objets": { "acc_norm": true }, "leaderboard_bbh_déduction_logique_cinq_objets": { "acc_norm": true }, "leaderboard_bbh_déduction_logique_sept_objets": { "acc_norm": true }, "leaderboard_bbh_déduction_logique_trois_objets": { "acc_norm": true }, "leaderboard_bbh_désambiguïsation_qa": { "acc_norm": true }, "leaderboard_bbh_expressions_booléennes": { "acc_norm": true }, "leaderboard_bbh_formes_géométriques": { "acc_norm": true }, "leaderboard_bbh_fr": { "acc": true, "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true, "acc_norm": true, "exact_match": true }, "leaderboard_bbh_hyperbate": { "acc_norm": true }, "leaderboard_bbh_jugement_causal": { "acc_norm": true }, "leaderboard_bbh_naviguer": { "acc_norm": true }, "leaderboard_bbh_pingouins_sur_une_table": { "acc_norm": true }, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": { "acc_norm": true }, "leaderboard_bbh_recommandation_de_film": { "acc_norm": true }, "leaderboard_bbh_sarcasmes": { "acc_norm": true }, "leaderboard_bbh_sophismes_formels": { "acc_norm": true }, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": { "acc_norm": true }, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": { "acc_norm": true }, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": { "acc_norm": true }, "leaderboard_bbh_séquences_temporelles": { "acc_norm": true }, "leaderboard_bbh_toile_de_mensonges": { "acc_norm": true }, "leaderboard_gpqa_diamond_fr": { "acc_norm": true }, "leaderboard_gpqa_extended_fr": { "acc_norm": true }, "leaderboard_gpqa_fr": { "acc": true, "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true, "acc_norm": true, "exact_match": true }, "leaderboard_gpqa_main_fr": { "acc_norm": true }, "leaderboard_ifeval_fr": { "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true }, "leaderboard_math_algebra_hard_fr": { "exact_match": true }, "leaderboard_math_counting_and_prob_hard_fr": { "exact_match": true }, "leaderboard_math_geometry_hard_fr": { "exact_match": true }, "leaderboard_math_hard_fr": { "acc": true, "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true, "acc_norm": true, "exact_match": true }, "leaderboard_math_num_theory_hard_fr": { "exact_match": true }, "leaderboard_math_prealgebra_hard_fr": { "exact_match": true }, "leaderboard_math_precalculus_hard_fr": { "exact_match": true }, "leaderboard_mmlu_fr": { "acc": true }, "leaderboard_musr_fr": { "acc": true, "prompt_level_strict_acc": true, "inst_level_strict_acc": true, "prompt_level_loose_acc": true, "inst_level_loose_acc": true, "acc_norm": true, "exact_match": true }, "leaderboard_musr_murder_mysteries_fr": { "acc_norm": true }, "leaderboard_musr_object_placements_fr": { "acc_norm": true }, "leaderboard_musr_team_allocation_fr": { "acc_norm": true } }
{ "leaderboard_mmlu_fr": { "original": 14042, "effective": 14042 }, "leaderboard_bbh_expressions_booléennes": { "original": 250, "effective": 250 }, "leaderboard_bbh_jugement_causal": { "original": 187, "effective": 187 }, "leaderboard_bbh_compréhension_de_la_date": { "original": 250, "effective": 250 }, "leaderboard_bbh_désambiguïsation_qa": { "original": 250, "effective": 250 }, "leaderboard_bbh_sophismes_formels": { "original": 250, "effective": 250 }, "leaderboard_bbh_formes_géométriques": { "original": 250, "effective": 250 }, "leaderboard_bbh_hyperbate": { "original": 250, "effective": 250 }, "leaderboard_bbh_déduction_logique_cinq_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_déduction_logique_sept_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_déduction_logique_trois_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_recommandation_de_film": { "original": 250, "effective": 250 }, "leaderboard_bbh_naviguer": { "original": 250, "effective": 250 }, "leaderboard_bbh_comptage_d_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_pingouins_sur_une_table": { "original": 146, "effective": 146 }, "leaderboard_bbh_raisonnement_sur_les_objets_colorés": { "original": 250, "effective": 250 }, "leaderboard_bbh_sarcasmes": { "original": 178, "effective": 178 }, "leaderboard_bbh_compréhension_des_sports": { "original": 250, "effective": 250 }, "leaderboard_bbh_séquences_temporelles": { "original": 250, "effective": 250 }, "leaderboard_bbh_suivi_objets_mélangés_cinq_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_suivi_objets_mélangés_sept_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_suivi_objets_mélangés_trois_objets": { "original": 250, "effective": 250 }, "leaderboard_bbh_toile_de_mensonges": { "original": 250, "effective": 250 }, "leaderboard_gpqa_diamond_fr": { "original": 197, "effective": 197 }, "leaderboard_gpqa_extended_fr": { "original": 543, "effective": 543 }, "leaderboard_gpqa_main_fr": { "original": 429, "effective": 429 }, "leaderboard_math_algebra_hard_fr": { "original": 350, "effective": 350 }, "leaderboard_math_counting_and_prob_hard_fr": { "original": 196, "effective": 196 }, "leaderboard_math_geometry_hard_fr": { "original": 206, "effective": 206 }, "leaderboard_math_num_theory_hard_fr": { "original": 217, "effective": 217 }, "leaderboard_math_prealgebra_hard_fr": { "original": 113, "effective": 113 }, "leaderboard_math_precalculus_hard_fr": { "original": 84, "effective": 84 }, "leaderboard_ifeval_fr": { "original": 515, "effective": 515 }, "leaderboard_musr_murder_mysteries_fr": { "original": 250, "effective": 250 }, "leaderboard_musr_object_placements_fr": { "original": 256, "effective": 256 }, "leaderboard_musr_team_allocation_fr": { "original": 250, "effective": 250 } }
{ "model": "vllm", "model_args": "pretrained=LsTam/test_Qwen_fr_14b,tensor_parallel_size=2,dtype=auto,gpu_memory_utilization=0.6,data_parallel_size=2,max_model_len=3040", "batch_size": "auto", "batch_sizes": [], "device": null, "use_cache": null, "limit": null, "bootstrap_iters": 100000, "gen_kwargs": null, "random_seed": 0, "numpy_seed": 1234, "torch_seed": 1234, "fewshot_seed": 1234 }
64286c9b
1,733,304,454.302316
PyTorch version: 2.4.0+cu121 Is debug build: False CUDA used to build PyTorch: 12.1 ROCM used to build PyTorch: N/A OS: Ubuntu 24.04.1 LTS (x86_64) GCC version: (Ubuntu 13.2.0-23ubuntu4) 13.2.0 Clang version: Could not collect CMake version: Could not collect Libc version: glibc-2.39 Python version: 3.12.3 (main, Nov 6 2024, 18:32:19) [GCC 13.2.0] (64-bit runtime) Python platform: Linux-6.8.0-1018-azure-x86_64-with-glibc2.39 Is CUDA available: True CUDA runtime version: 12.6.77 CUDA_MODULE_LOADING set to: LAZY GPU models and configuration: GPU 0: NVIDIA A100 80GB PCIe GPU 1: NVIDIA A100 80GB PCIe GPU 2: NVIDIA A100 80GB PCIe GPU 3: NVIDIA A100 80GB PCIe Nvidia driver version: 550.120 cuDNN version: Could not collect HIP runtime version: N/A MIOpen runtime version: N/A Is XNNPACK available: True CPU: Architecture: x86_64 CPU op-mode(s): 32-bit, 64-bit Address sizes: 48 bits physical, 48 bits virtual Byte Order: Little Endian CPU(s): 96 On-line CPU(s) list: 0-95 Vendor ID: AuthenticAMD Model name: AMD EPYC 7V13 64-Core Processor CPU family: 25 Model: 1 Thread(s) per core: 1 Core(s) per socket: 48 Socket(s): 2 Stepping: 1 BogoMIPS: 4890.88 Flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl tsc_reliable nonstop_tsc cpuid extd_apicid aperfmperf pni pclmulqdq ssse3 fma cx16 pcid sse4_1 sse4_2 movbe popcnt aes xsave avx f16c rdrand hypervisor lahf_lm cmp_legacy cr8_legacy abm sse4a misalignsse 3dnowprefetch osvw topoext perfctr_core vmmcall fsgsbase bmi1 avx2 smep bmi2 erms invpcid rdseed adx smap clflushopt clwb sha_ni xsaveopt xsavec xgetbv1 xsaves user_shstk clzero xsaveerptr rdpru arat umip vaes vpclmulqdq rdpid fsrm Hypervisor vendor: Microsoft Virtualization type: full L1d cache: 3 MiB (96 instances) L1i cache: 3 MiB (96 instances) L2 cache: 48 MiB (96 instances) L3 cache: 384 MiB (12 instances) NUMA node(s): 4 NUMA node0 CPU(s): 0-23 NUMA node1 CPU(s): 24-47 NUMA node2 CPU(s): 48-71 NUMA node3 CPU(s): 72-95 Vulnerability Gather data sampling: Not affected Vulnerability Itlb multihit: Not affected Vulnerability L1tf: Not affected Vulnerability Mds: Not affected Vulnerability Meltdown: Not affected Vulnerability Mmio stale data: Not affected Vulnerability Reg file data sampling: Not affected Vulnerability Retbleed: Not affected Vulnerability Spec rstack overflow: Vulnerable: Safe RET, no microcode Vulnerability Spec store bypass: Vulnerable Vulnerability Spectre v1: Mitigation; usercopy/swapgs barriers and __user pointer sanitization Vulnerability Spectre v2: Mitigation; Retpolines; STIBP disabled; RSB filling; PBRSB-eIBRS Not affected; BHI Not affected Vulnerability Srbds: Not affected Vulnerability Tsx async abort: Not affected Versions of relevant libraries: [pip3] numpy==1.26.4 [pip3] torch==2.4.0 [pip3] torchvision==0.19.0 [pip3] triton==3.0.0 [conda] Could not collect
4.46.2
null
[ "<|endoftext|>", "151643" ]
[ "<|im_end|>", "151645" ]
[ "None" ]
151,645
3,040
{}
vllm
LsTam/test_Qwen_fr_14b
LsTam__test_Qwen_fr_14b
null
null
false
null
null
1,500.510649
5,171.087116
3670.576467062
{ "BBH-fr": { "metric_name": 0.4012 }, "GPQA-fr": { "metric_name": 0.191 }, "IFEval-fr": { "metric_name": 0.1632 }, "MUSR-fr": { "metric_name": 0.030600000000000002 }, "MATH Lvl5-fr": { "metric_name": 0.37770000000000004 }, "MMMLU-fr": { "metric_name": 0.6862999999999999 } }
null
null
null
null
null
null
{ "model_name": "LsTam/test_Qwen_fr_14b", "model_dtype": "torch.float16" }
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null
null

No dataset card yet

Downloads last month
1,468