Spaces:
Build error
Build error
glm-4 p2 epoch 2 results
Browse files
logs/glm-4-9b-chat-1m_epoch_1.txt
CHANGED
@@ -1,10 +1,10 @@
|
|
1 |
loading env vars from: /common2/dh.huang.2023/code/logical-reasoning/.env
|
2 |
Adding /common2/dh.huang.2023/code/logical-reasoning to sys.path
|
3 |
loading /common2/dh.huang.2023/code/logical-reasoning/llm_toolkit/logical_reasoning_utils.py
|
4 |
-
THUDM/glm-4-9b-chat-1m llama-factory/saves/glm-4-9b/lora/
|
5 |
(1) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
6 |
0.0 GB of memory reserved.
|
7 |
-
loading model: THUDM/glm-4-9b-chat-1m with adapter: llama-factory/saves/glm-4-9b/lora/
|
8 |
(2) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
9 |
17.828 GB of memory reserved.
|
10 |
loading train/test data files
|
@@ -33,40 +33,48 @@ truth: 甄加索是一位热爱自然的画家,他每年都会来到这个海
|
|
33 |
--------------------------------------------------
|
34 |
train_text: [gMASK]<sop><|system|>
|
35 |
You are an expert in logical reasoning.<|user|>
|
36 |
-
|
37 |
-
|
38 |
-
1.
|
39 |
-
2.
|
40 |
-
3.
|
41 |
-
4.
|
42 |
-
|
|
|
|
|
|
|
|
|
43 |
|
44 |
请严格按照这些规则回答参与者提出的问题。
|
45 |
|
46 |
-
|
47 |
|
48 |
-
|
49 |
|
50 |
-
|
51 |
<|assistant|>不是<|endoftext|>
|
52 |
--------------------------------------------------
|
53 |
prompt: [gMASK]<sop><|system|>
|
54 |
You are an expert in logical reasoning.<|user|>
|
55 |
-
|
56 |
-
|
57 |
-
1.
|
58 |
-
2.
|
59 |
-
3.
|
60 |
-
4.
|
61 |
-
|
|
|
|
|
|
|
|
|
62 |
|
63 |
请严格按照这些规则回答参与者提出的问题。
|
64 |
|
65 |
-
|
66 |
|
67 |
-
|
68 |
|
69 |
-
|
70 |
<|assistant|>
|
71 |
--------------------------------------------------
|
72 |
text: 死者受伤了吗
|
@@ -83,59 +91,67 @@ truth: 原来,这顶破旧的帽子属于一个小男孩,他小时候与爷
|
|
83 |
--------------------------------------------------
|
84 |
train_text: [gMASK]<sop><|system|>
|
85 |
You are an expert in logical reasoning.<|user|>
|
86 |
-
|
87 |
-
|
88 |
-
1.
|
89 |
-
2.
|
90 |
-
3.
|
91 |
-
4.
|
92 |
-
|
|
|
|
|
|
|
|
|
93 |
|
94 |
请严格按照这些规则回答参与者提出的问题。
|
95 |
|
96 |
-
|
97 |
|
98 |
-
|
99 |
|
100 |
-
|
101 |
<|assistant|>不是<|endoftext|>
|
102 |
--------------------------------------------------
|
103 |
prompt: [gMASK]<sop><|system|>
|
104 |
You are an expert in logical reasoning.<|user|>
|
105 |
-
|
106 |
-
|
107 |
-
1.
|
108 |
-
2.
|
109 |
-
3.
|
110 |
-
4.
|
111 |
-
|
|
|
|
|
|
|
|
|
112 |
|
113 |
请严格按照这些规则回答参与者提出的问题。
|
114 |
|
115 |
-
|
116 |
|
117 |
-
|
118 |
|
119 |
-
|
120 |
<|assistant|>
|
121 |
Evaluating model: THUDM/glm-4-9b-chat-1m
|
122 |
--------
|
123 |
step 1:
|
124 |
-
|
125 |
--------
|
126 |
step 2:
|
127 |
-
|
128 |
--------
|
129 |
step 3:
|
130 |
-
|
131 |
--------
|
132 |
-
step 4:
|
133 |
--------
|
134 |
-
step 5:
|
135 |
(3) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
136 |
-
18.
|
137 |
text label ... THUDM/glm-4-9b-chat-1m THUDM/glm-4-9b-chat-1m_checkpoint-175
|
138 |
-
0 甄加索是自杀吗 不是 ...
|
139 |
|
140 |
[1 rows x 7 columns]
|
141 |
-
{'accuracy': 0.
|
|
|
1 |
loading env vars from: /common2/dh.huang.2023/code/logical-reasoning/.env
|
2 |
Adding /common2/dh.huang.2023/code/logical-reasoning to sys.path
|
3 |
loading /common2/dh.huang.2023/code/logical-reasoning/llm_toolkit/logical_reasoning_utils.py
|
4 |
+
THUDM/glm-4-9b-chat-1m llama-factory/saves/glm-4-9b/lora/sft_bf16_p2_full/checkpoint-175 False datasets/mgtv results/glm-4-9b_lora_sft_bf16-p2.csv
|
5 |
(1) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
6 |
0.0 GB of memory reserved.
|
7 |
+
loading model: THUDM/glm-4-9b-chat-1m with adapter: llama-factory/saves/glm-4-9b/lora/sft_bf16_p2_full/checkpoint-175
|
8 |
(2) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
9 |
17.828 GB of memory reserved.
|
10 |
loading train/test data files
|
|
|
33 |
--------------------------------------------------
|
34 |
train_text: [gMASK]<sop><|system|>
|
35 |
You are an expert in logical reasoning.<|user|>
|
36 |
+
你是一个情景猜谜游戏的主持人。游戏规则如下:
|
37 |
+
|
38 |
+
1. 参与者会得到一个谜面,谜面会描述一个简单又难以理解的事件。
|
39 |
+
2. 主持人知道谜底,谜底是谜面的答案。
|
40 |
+
3. 参与者可以询问任何封闭式问题来找寻事件的真相。
|
41 |
+
4. 对于每个问题,主持人将根据实际情况回答以下五个选项之一:是、不是、不重要、回答正确、问法错误。各回答的判断标准如下:
|
42 |
+
- 若谜面和谜底能找到问题的答案,回答:是或者不是
|
43 |
+
- 若谜面和谜底不能直接或者间接推断出问题的答案,回答:不重要
|
44 |
+
- 若参与者提问不是一个封闭式问题或者问题难以理解,回答:问法错误
|
45 |
+
- 若参与者提问基本还原了谜底真相,回答:回答正确
|
46 |
+
5. 回答中不能添加任何其它信息,也不能省略选项中的任何一个字。例如,不可以把“不是”省略成“不”。
|
47 |
|
48 |
请严格按照这些规则回答参与者提出的问题。
|
49 |
|
50 |
+
**谜面:** 在远离城市喧嚣的海边小屋,一天清晨,邻居发现甄加索僵卧在沙滩上,已无生命迹象。现场没有发现任何打斗的迹象。请问甄加索的死因是什么?
|
51 |
|
52 |
+
**谜底:** 甄加索是一位热爱自然的画家,他每年都会来到这个海边小屋寻找灵感。在他生命的最后几天,他一直在创作一幅描绘海洋生物的画作。在画即将完成的前一天晚上,他骑着自行车外出,打算在海边观赏夜景。然而,他在沙滩上意外发现了一只搁浅的海豚,为了救助这只海豚,他耗费了极大的体力,最终成功将其送回海中。筋疲力尽的甄加索在沙滩上睡着了,由于他患有严重的心脏病,却未告知旁人,在寒冷的海风中,他的心脏停止了跳动。因此,警方在现场只发现了车轮痕迹和未完成的画作,而没有发现任何他杀的迹象。
|
53 |
|
54 |
+
**参与者提出的问题:** 甄加索是自杀吗
|
55 |
<|assistant|>不是<|endoftext|>
|
56 |
--------------------------------------------------
|
57 |
prompt: [gMASK]<sop><|system|>
|
58 |
You are an expert in logical reasoning.<|user|>
|
59 |
+
你是一个情景猜谜游戏的主持人。游戏规则如下:
|
60 |
+
|
61 |
+
1. 参与者会得到一个谜面,谜面会描述一个简单又难以理解的事件。
|
62 |
+
2. 主持人知道谜底,谜底是谜面的答案。
|
63 |
+
3. 参与者可以询问任何封闭式问题来找寻事件的真相。
|
64 |
+
4. 对于每个问题,主持人将根据实际情况回答以下五个选项之一:是、不是、不重要、回答正确、问法错误。各回答的判断标准如下:
|
65 |
+
- 若谜面和谜底能找到问题的答案,回答:是或者不是
|
66 |
+
- 若谜面和谜底不能直接或者间接推断出问题的答案,回答:不重要
|
67 |
+
- 若参与者提问不是一个封闭式问题或者问题难以理解,回答:问法错误
|
68 |
+
- 若参与者提问基本还原了谜底真相,回答:回答正确
|
69 |
+
5. 回答中不能添加任何其它信息,也不能省略选项中的任何一个字。例如,不可以把“不是”省略成“不”。
|
70 |
|
71 |
请严格按照这些规则回答参与者提出的问题。
|
72 |
|
73 |
+
**谜面:** 在远离城市喧嚣的海边小屋,一天清晨,邻居发现甄加索僵卧在沙滩上,已无生命迹象。现场没有发现任何打斗的迹象。请问甄加索的死因是什么?
|
74 |
|
75 |
+
**谜底:** 甄加索是一位热爱自然的画家,他每年都会来到这个海边小屋寻找灵感。在他生命的最后几天,他一直在创作一幅描绘海洋生物的画作。在画即将完成的前一天晚上,他骑着自行车外出,打算在海边观赏夜景。然而,他在沙滩上意外发现了一只搁浅的海豚,为了救助这只海豚,他耗费了极大的体力,最终成功将其送回海中。筋疲力尽的甄加索在沙滩上睡着了,由于他患有严重的心脏病,却未告知旁人,在寒冷的海风中,他的心脏停止了跳动。因此,警方在现场只发现了车轮痕迹和未完成的画作,而没有发现任何他杀的迹象。
|
76 |
|
77 |
+
**参与者提出的问题:** 甄加索是自杀吗
|
78 |
<|assistant|>
|
79 |
--------------------------------------------------
|
80 |
text: 死者受伤了吗
|
|
|
91 |
--------------------------------------------------
|
92 |
train_text: [gMASK]<sop><|system|>
|
93 |
You are an expert in logical reasoning.<|user|>
|
94 |
+
你是一个情景猜谜游戏的主持人。游戏规则如下:
|
95 |
+
|
96 |
+
1. 参与者会得到一个谜面,谜面会描述一个简单又难以理解的事件。
|
97 |
+
2. 主持人知道谜底,谜底是谜面的答案。
|
98 |
+
3. 参与者可以询问任何封闭式问题来找寻事件的真相。
|
99 |
+
4. 对于每个问题,主持人将根据实际情况回答以下五个选项之一:是、不是、不重要、回答正确、问法错误。各回答的判断标准如下:
|
100 |
+
- 若谜面和谜底能找到问题的答案,回答:是或者不是
|
101 |
+
- 若谜面和谜底不能直接或者间接推断出问题的答案,回答:不重要
|
102 |
+
- 若参与者提问不是一个封闭式问题或者问题难以理解,回答:问法错误
|
103 |
+
- 若参与者提问基本还原了谜底真相,回答:回答正确
|
104 |
+
5. 回答中不能添加任何其它信息,也不能省略选项中的任何一个字。例如,不可以把“不��”省略成“不”。
|
105 |
|
106 |
请严格按照这些规则回答参与者提出的问题。
|
107 |
|
108 |
+
**谜面:** 在一个安静的夜晚,小村庄的湖边突然传来了阵阵哭泣声。第二天早晨,村长甄锐发现湖边的石头上放着一顶破旧的帽子,但没有人知道这顶帽子是从哪里来的,哭泣声又是为何。请还原故事真相。
|
109 |
|
110 |
+
**谜底:** 原来,这顶破旧的帽子属于一个小男孩,他小时候与爷爷在湖边生活。爷爷教他钓鱼、游泳,还告诉他湖中的海龟是他们的朋友。后来,小男孩随父母去了城市生活,但每年夏天都会回到村子探望爷爷。然而,去年夏天,爷爷因病去世,小男孩伤心欲绝。今年夏天,他回到村子,来到湖边,想起和爷爷的美好回忆,忍不住哭泣。他将爷爷的帽子放在湖边的石头上,希望能让爷爷的在天之灵得到安慰。那晚的哭泣声正是小男孩在祭莫他亲爱的爷爷。
|
111 |
|
112 |
+
**参与者提出的问题:** 死者受伤了吗
|
113 |
<|assistant|>不是<|endoftext|>
|
114 |
--------------------------------------------------
|
115 |
prompt: [gMASK]<sop><|system|>
|
116 |
You are an expert in logical reasoning.<|user|>
|
117 |
+
你是一个情景猜谜游戏的主持人。游戏规则如下:
|
118 |
+
|
119 |
+
1. 参与者会得到一个谜面,谜面会描述一个简单又难以理解的事件。
|
120 |
+
2. 主持人知道谜底,谜底是谜面的答案。
|
121 |
+
3. 参与者可以询问任何封闭式问题来找寻事件的真相。
|
122 |
+
4. 对于每个问题,主持人将根据实际情况回答以下五个选项之一:是、不是、不重要、回答正确、问法错误。各回答的判断标准如下:
|
123 |
+
- 若谜面和谜底能找到问题的答案,回答:是或者不是
|
124 |
+
- 若谜面和谜底不能直接或者间接推断出问题的答案,回答:不重要
|
125 |
+
- 若参与者提问不是一个封闭式问题或者问题难以理解,回答:问法错误
|
126 |
+
- 若参与者提问基本还原了谜底真相,回答:回答正确
|
127 |
+
5. 回答中不能添加任何其它信息,也不能省略选项中的任何一个字。例如,不可以把“不是”省略成“不”。
|
128 |
|
129 |
请严格按照这些规则回答参与者提出的问题。
|
130 |
|
131 |
+
**谜面:** 在一个安静的夜晚,小村庄的湖边突然传来了阵阵哭泣声。第二天早晨,村长甄锐发现湖边的石头上放着一顶破旧的帽子,但没有人知道这顶帽子是从哪里来的,哭泣声又是为何。请还原故事真相。
|
132 |
|
133 |
+
**谜底:** 原来,这顶破旧的帽子属于一个小男孩,他小时候与爷爷在湖边生活。爷爷教他钓鱼、游泳,还告诉他湖中的海龟是他们的朋友。后来,小男孩随父母去了城市生活,但每年夏天都会回到村子探望爷爷。然而,去年夏天,爷爷因病去世,小男孩伤心欲绝。今年夏天,他回到村子,来到湖边,想起和爷爷的美好回忆,忍不住哭泣。他将爷爷的帽子放在湖边的石头上,希望能让爷爷的在天之灵得到安慰。那晚的哭泣声正是小男孩在祭莫他亲爱的爷爷。
|
134 |
|
135 |
+
**参与者提出的问题:** 死者受伤了吗
|
136 |
<|assistant|>
|
137 |
Evaluating model: THUDM/glm-4-9b-chat-1m
|
138 |
--------
|
139 |
step 1:
|
140 |
+
不是
|
141 |
--------
|
142 |
step 2:
|
143 |
+
不是
|
144 |
--------
|
145 |
step 3:
|
146 |
+
不是
|
147 |
--------
|
148 |
+
step 4: 不是
|
149 |
--------
|
150 |
+
step 5: 不是
|
151 |
(3) GPU = NVIDIA L40. Max memory = 44.309 GB.
|
152 |
+
18.473 GB of memory reserved.
|
153 |
text label ... THUDM/glm-4-9b-chat-1m THUDM/glm-4-9b-chat-1m_checkpoint-175
|
154 |
+
0 甄加索是自杀吗 不是 ... 回答:不是 不是
|
155 |
|
156 |
[1 rows x 7 columns]
|
157 |
+
{'accuracy': 0.5946666666666667, 'incorrect_ids': [5, 7, 9, 15, 16, 17, 18, 24, 25, 26, 27, 28, 31, 33, 34, 35, 36, 42, 43, 48, 55, 58, 59, 61, 65, 66, 67, 69, 71, 75, 77, 78, 82, 83, 85, 90, 91, 93, 94, 95, 96, 101, 102, 104, 105, 106, 111, 112, 113, 115, 118, 120, 121, 122, 123, 126, 127, 128, 131, 135, 136, 137, 138, 139, 140, 150, 153, 155, 156, 161, 162, 164, 170, 171, 172, 174, 175, 178, 179, 180, 181, 184, 186, 187, 188, 189, 190, 191, 192, 193, 199, 200, 202, 209, 214, 216, 221, 224, 225, 226, 227, 228, 230, 233, 234, 236, 239, 240, 243, 245, 250, 251, 252, 256, 257, 260, 261, 262, 263, 265, 268, 271, 272, 273, 278, 283, 284, 286, 289, 292, 293, 294, 295, 299, 301, 304, 305, 307, 308, 309, 311, 314, 315, 317, 320, 323, 325, 326, 328, 332, 333, 334, 335, 337, 338, 339, 340, 344, 346, 347, 348, 349, 350, 352, 353, 355, 356, 358, 361, 362, 364, 365, 367, 368, 373, 374, 376, 377, 378, 380, 381, 389, 395, 396, 397, 401, 402, 410, 421, 425, 428, 429, 430, 431, 432, 436, 438, 440, 442, 445, 447, 450, 452, 454, 455, 456, 457, 459, 460, 464, 465, 471, 472, 473, 475, 476, 482, 488, 490, 492, 494, 498, 500, 501, 502, 504, 506, 507, 508, 510, 511, 514, 518, 519, 530, 531, 533, 536, 538, 540, 543, 553, 560, 566, 567, 568, 570, 571, 579, 581, 589, 591, 592, 593, 594, 597, 598, 599, 601, 609, 613, 614, 621, 626, 627, 629, 631, 632, 633, 635, 637, 641, 643, 644, 645, 646, 647, 649, 651, 653, 655, 656, 657, 663, 665, 666, 667, 668, 669, 671, 674, 678, 680, 682, 683, 686, 691, 693, 695, 699, 701, 702, 703, 704, 705, 708, 716, 717, 719, 720, 721, 722, 724, 725, 726, 730, 733, 734, 735, 739, 740, 741, 743, 747, 752, 754, 758, 759, 763, 765, 766, 768, 770, 772, 773, 774, 776, 778, 781, 782, 785, 791, 795, 798, 799, 801, 803, 805, 809, 810, 812, 813, 814, 815, 817, 820, 821, 822, 823, 824, 827, 828, 832, 833, 834, 840, 843, 847, 850, 851, 853, 856, 861, 866, 867, 869, 870, 871, 873, 876, 877, 878, 884, 886, 888, 889, 890, 891, 892, 894, 897, 901, 904, 907, 910, 912, 913, 917, 920, 927, 928, 929, 936, 937, 942, 945, 946, 953, 954, 956, 957, 965, 968, 969, 970, 972, 973, 980, 981, 983, 987, 989, 991, 993, 998, 1001, 1003, 1006, 1007, 1009, 1011, 1012, 1014, 1015, 1022, 1023, 1025, 1028, 1029, 1036, 1038, 1039, 1040, 1041, 1043, 1045, 1048, 1050, 1051, 1054, 1056, 1061, 1062, 1063, 1069, 1073, 1074, 1075, 1077, 1078, 1079, 1080, 1081, 1082, 1084, 1087, 1089, 1091, 1096, 1097, 1098, 1099, 1102, 1105, 1106, 1107, 1111, 1114, 1116, 1120, 1121, 1125, 1126, 1128, 1129, 1130, 1133, 1134, 1138, 1139, 1140, 1141, 1143, 1147, 1151, 1153, 1156, 1159, 1161, 1163, 1166, 1168, 1172, 1175, 1177, 1183, 1185, 1192, 1196, 1203, 1207, 1209, 1212, 1219, 1220, 1224, 1228, 1230, 1231, 1232, 1235, 1237, 1238, 1239, 1240, 1241, 1242, 1243, 1245, 1246, 1249, 1252, 1254, 1256, 1259, 1264, 1266, 1267, 1270, 1272, 1274, 1276, 1278, 1281, 1282, 1286, 1289, 1292, 1299, 1300, 1305, 1306, 1308, 1312, 1313, 1314, 1317, 1318, 1320, 1321, 1322, 1323, 1328, 1329, 1331, 1334, 1337, 1342, 1345, 1348, 1349, 1353, 1354, 1357, 1358, 1361, 1362, 1363, 1364, 1371, 1372, 1373, 1378, 1379, 1385, 1386, 1387, 1388, 1389, 1390, 1391, 1392, 1395, 1400, 1402, 1406, 1416, 1417, 1420, 1422, 1424, 1425, 1426, 1427, 1428, 1430, 1431, 1432, 1435, 1438, 1439, 1440, 1441, 1443, 1444, 1445, 1450, 1451, 1452, 1453, 1454, 1455, 1459, 1462, 1466, 1467, 1469, 1472, 1478, 1482, 1484, 1485, 1487, 1489, 1490, 1491, 1493, 1495, 1496, 1498, 1503, 1504, 1510, 1512, 1516, 1517, 1518, 1522, 1525, 1526, 1528, 1533, 1536, 1542, 1543, 1544, 1545, 1546, 1547, 1551, 1552, 1556, 1558, 1560, 1561, 1562, 1568, 1569, 1577, 1581, 1585, 1586, 1587, 1588, 1590, 1591, 1593, 1594, 1602, 1603, 1604, 1605, 1606, 1607, 1611, 1612, 1613, 1620, 1621, 1622, 1623, 1624, 1627, 1631, 1632, 1633, 1636, 1637, 1639, 1641, 1643, 1645, 1648, 1652, 1653, 1654, 1655, 1658, 1660, 1668, 1672, 1677, 1682, 1684, 1690, 1691, 1694, 1695, 1699, 1711, 1713, 1716, 1717, 1718, 1723, 1727, 1728, 1735, 1738, 1743, 1745, 1751, 1753, 1754, 1755, 1756, 1760, 1763, 1765, 1766, 1767, 1769, 1770, 1772, 1777, 1778, 1779, 1780, 1785, 1786, 1788, 1791, 1796, 1797, 1799, 1805, 1810, 1812, 1816, 1821, 1822, 1823, 1824, 1834, 1835, 1840, 1841, 1846, 1848, 1849, 1852, 1853, 1855, 1860, 1870, 1872, 1879, 1882, 1884, 1890, 1894, 1896, 1897, 1903, 1909, 1912, 1913, 1916, 1919, 1926, 1928, 1935, 1936, 1938, 1940, 1941, 1944, 1949, 1951, 1953, 1956, 1957, 1958, 1959, 1961, 1963, 1964, 1970, 1973, 1975, 1978, 1981, 1982, 1985, 1986, 1988, 1989, 1990, 1992, 1993, 1995, 1996, 2002, 2003, 2008, 2013, 2014, 2015, 2017, 2019, 2020, 2021, 2024, 2025, 2029, 2034, 2035, 2038, 2042, 2043, 2044, 2046, 2047, 2049, 2052, 2053, 2058, 2059, 2061, 2062, 2064, 2069, 2072, 2073, 2077, 2079, 2081, 2082, 2088, 2093, 2095, 2100, 2107, 2109, 2111, 2112, 2119, 2121, 2126, 2127, 2130, 2131, 2132, 2133, 2139, 2142, 2146, 2149, 2159, 2160, 2161, 2162, 2167, 2168, 2169, 2171, 2173, 2177, 2179, 2180, 2183, 2184, 2185, 2186, 2188, 2191, 2192, 2193, 2194, 2195, 2196, 2197, 2198, 2199, 2200, 2209, 2212, 2213, 2215, 2219, 2222, 2223, 2224, 2226, 2230, 2231, 2233, 2240, 2243, 2245, 2247, 2250, 2251, 2254, 2260, 2261, 2262, 2266, 2267, 2274, 2276, 2278, 2279, 2280, 2281, 2282, 2285, 2290, 2293, 2301, 2309, 2311, 2313, 2317, 2320, 2321, 2322, 2324, 2329, 2332, 2333, 2334, 2335, 2336, 2338, 2339, 2340, 2344, 2348, 2352, 2356, 2359, 2360, 2361, 2362, 2364, 2366, 2367, 2369, 2370, 2376, 2378, 2379, 2383, 2388, 2390, 2395, 2398, 2400, 2404, 2405, 2406, 2409, 2410, 2412, 2419, 2420, 2421, 2423, 2424, 2425, 2429, 2435, 2437, 2440, 2441, 2442, 2444, 2445, 2446, 2448, 2450, 2452, 2464, 2465, 2472, 2475, 2477, 2484, 2488, 2496, 2497, 2499, 2501, 2503, 2511, 2512, 2515, 2516, 2517, 2518, 2521, 2523, 2524, 2525, 2528, 2529, 2530, 2532, 2538, 2539, 2540, 2546, 2550, 2551, 2552, 2556, 2557, 2559, 2571, 2574, 2575, 2577, 2589, 2592, 2593, 2594, 2595, 2597, 2600, 2602, 2604, 2605, 2606, 2607, 2608, 2609, 2610, 2616, 2620, 2622, 2623, 2624, 2625, 2626, 2628, 2629, 2630, 2633, 2635, 2636, 2638, 2642, 2644, 2645, 2647, 2652, 2653, 2655, 2657, 2660, 2663, 2664, 2665, 2667, 2671, 2672, 2675, 2677, 2678, 2685, 2686, 2687, 2694, 2697, 2702, 2703, 2707, 2713, 2714, 2715, 2716, 2717, 2726, 2727, 2730, 2731, 2732, 2733, 2740, 2742, 2744, 2746, 2747, 2749, 2754, 2757, 2760, 2761, 2762, 2764, 2765, 2766, 2767, 2768, 2769, 2771, 2777, 2781, 2783, 2788, 2789, 2791, 2792, 2793, 2795, 2796, 2798, 2801, 2803, 2805, 2806, 2807, 2810, 2813, 2814, 2815, 2816, 2818, 2820, 2821, 2822, 2823, 2824, 2829, 2833, 2837, 2838, 2841, 2843, 2844, 2845, 2846, 2851, 2854, 2857, 2860, 2861, 2865, 2870, 2871, 2876, 2877, 2878, 2880, 2881, 2882, 2884, 2885, 2898, 2899, 2902, 2904, 2905, 2910, 2912, 2915, 2916, 2917, 2920, 2921, 2923, 2928, 2933, 2935, 2937, 2942, 2944, 2946, 2949, 2953, 2954, 2955, 2960, 2965, 2967, 2968, 2972, 2976, 2978, 2979, 2980, 2983, 2985, 2991, 2998]}
|
results/glm-4-9b_lora_sft_bf16-p2.csv
CHANGED
The diff for this file is too large to render.
See raw diff
|
|
scripts/eval-mgtv-glm-4-9b.sh
CHANGED
@@ -26,10 +26,10 @@ export MODEL_PREFIX=glm-4-9b_lora_sft_bf16
|
|
26 |
export LOGICAL_REASONING_RESULTS_PATH=results/$MODEL_PREFIX-p1.csv
|
27 |
export ADAPTER_PATH_BASE=llama-factory/saves/glm-4-9b/lora/sft_bf16_p1_full
|
28 |
export USING_P1_PROMPT_TEMPLATE=true
|
29 |
-
echo "Eval $MODEL_NAME with $ADAPTER_PATH_BASE"
|
30 |
-
python llm_toolkit/eval_logical_reasoning_all_epochs.py
|
31 |
|
32 |
-
export START_EPOCH=
|
33 |
export LOGICAL_REASONING_RESULTS_PATH=results/$MODEL_PREFIX-p2.csv
|
34 |
export ADAPTER_PATH_BASE=llama-factory/saves/glm-4-9b/lora/sft_bf16_p2_full
|
35 |
export USING_P1_PROMPT_TEMPLATE=false
|
|
|
26 |
export LOGICAL_REASONING_RESULTS_PATH=results/$MODEL_PREFIX-p1.csv
|
27 |
export ADAPTER_PATH_BASE=llama-factory/saves/glm-4-9b/lora/sft_bf16_p1_full
|
28 |
export USING_P1_PROMPT_TEMPLATE=true
|
29 |
+
#echo "Eval $MODEL_NAME with $ADAPTER_PATH_BASE"
|
30 |
+
#python llm_toolkit/eval_logical_reasoning_all_epochs.py
|
31 |
|
32 |
+
export START_EPOCH=1
|
33 |
export LOGICAL_REASONING_RESULTS_PATH=results/$MODEL_PREFIX-p2.csv
|
34 |
export ADAPTER_PATH_BASE=llama-factory/saves/glm-4-9b/lora/sft_bf16_p2_full
|
35 |
export USING_P1_PROMPT_TEMPLATE=false
|