Adding Evaluation Results

#2
Files changed (1) hide show
  1. README.md +14 -0
README.md CHANGED
@@ -396,3 +396,17 @@ Output:
396
  - 模型参数量较小,且未经过人类价值观对其,可能会产生不当言论,不代表本项目观点。
397
  - 与原生中文大模型相比,我们的预训练数据量级还远远不足,且大绝大部分为新闻语料,在一些中文任务上可能表现欠佳。
398
  - 使用本项目的模型时,请遵守对应的官方模型的开源协议。
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
396
  - 模型参数量较小,且未经过人类价值观对其,可能会产生不当言论,不代表本项目观点。
397
  - 与原生中文大模型相比,我们的预训练数据量级还远远不足,且大绝大部分为新闻语料,在一些中文任务上可能表现欠佳。
398
  - 使用本项目的模型时,请遵守对应的官方模型的开源协议。
399
+
400
+ # [Open LLM Leaderboard Evaluation Results](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)
401
+ Detailed results can be found [here](https://huggingface.co/datasets/open-llm-leaderboard/details_YeungNLP__firefly-llama2-7b-pretrain)
402
+
403
+ | Metric | Value |
404
+ |-----------------------|---------------------------|
405
+ | Avg. | 40.26 |
406
+ | ARC (25-shot) | 48.63 |
407
+ | HellaSwag (10-shot) | 74.83 |
408
+ | MMLU (5-shot) | 41.04 |
409
+ | TruthfulQA (0-shot) | 39.08 |
410
+ | Winogrande (5-shot) | 70.24 |
411
+ | GSM8K (5-shot) | 3.26 |
412
+ | DROP (3-shot) | 4.74 |