Muennighoff's picture
Add MTEB evaluation
154c4e9
raw
history blame
1.12 kB
{"dataset_version": null, "mteb_version": "0.0.2", "test": {"evaluation_time": 62.83, "map_at_1": 0.17195166666666667, "map_at_10": 0.23329083333333334, "map_at_100": 0.2430308333333333, "map_at_1000": 0.24422416666666666, "map_at_3": 0.21327416666666665, "map_at_5": 0.22419999999999998, "mrr_at_1": 0.19999916666666667, "mrr_at_10": 0.26390166666666665, "mrr_at_100": 0.27231, "mrr_at_1000": 0.27308333333333334, "mrr_at_3": 0.244675, "mrr_at_5": 0.25541083333333336, "ndcg_at_1": 0.19999916666666667, "ndcg_at_10": 0.27248666666666665, "ndcg_at_100": 0.3200258333333334, "ndcg_at_1000": 0.34946499999999997, "ndcg_at_3": 0.2358566666666667, "ndcg_at_5": 0.2526341666666666, "precision_at_1": 0.19999916666666667, "precision_at_10": 0.04772166666666666, "precision_at_100": 0.00847, "precision_at_1000": 0.0012741666666666667, "precision_at_3": 0.10756166666666668, "precision_at_5": 0.07725416666666667, "recall_at_1": 0.17195166666666667, "recall_at_10": 0.35990833333333344, "recall_at_100": 0.57468, "recall_at_1000": 0.7882366666666667, "recall_at_3": 0.25898499999999997, "recall_at_5": 0.30084333333333335}}