{ "best_metric": null, "best_model_checkpoint": null, "epoch": 80.0, "eval_steps": 500, "global_step": 300, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.5333333333333333, "grad_norm": 4.345211029052734, "learning_rate": 0.00019866666666666668, "loss": 5.2267, "step": 2 }, { "epoch": 1.0666666666666667, "grad_norm": 2.278362274169922, "learning_rate": 0.00019733333333333335, "loss": 5.2119, "step": 4 }, { "epoch": 1.6, "grad_norm": 2.3086485862731934, "learning_rate": 0.000196, "loss": 5.0838, "step": 6 }, { "epoch": 2.1333333333333333, "grad_norm": 2.830240249633789, "learning_rate": 0.0001946666666666667, "loss": 5.169, "step": 8 }, { "epoch": 2.6666666666666665, "grad_norm": 1.9018843173980713, "learning_rate": 0.00019333333333333333, "loss": 5.0305, "step": 10 }, { "epoch": 3.2, "grad_norm": 1.686331033706665, "learning_rate": 0.000192, "loss": 4.8707, "step": 12 }, { "epoch": 3.7333333333333334, "grad_norm": 1.7581056356430054, "learning_rate": 0.00019066666666666668, "loss": 4.8496, "step": 14 }, { "epoch": 4.266666666666667, "grad_norm": 2.22395920753479, "learning_rate": 0.00018933333333333335, "loss": 5.0846, "step": 16 }, { "epoch": 4.8, "grad_norm": 1.7067149877548218, "learning_rate": 0.000188, "loss": 4.753, "step": 18 }, { "epoch": 5.333333333333333, "grad_norm": 2.107501268386841, "learning_rate": 0.0001866666666666667, "loss": 4.7453, "step": 20 }, { "epoch": 5.866666666666667, "grad_norm": 1.7721563577651978, "learning_rate": 0.00018533333333333333, "loss": 4.8327, "step": 22 }, { "epoch": 6.4, "grad_norm": 1.7392892837524414, "learning_rate": 0.00018400000000000003, "loss": 4.5603, "step": 24 }, { "epoch": 6.933333333333334, "grad_norm": 2.0787057876586914, "learning_rate": 0.00018266666666666667, "loss": 4.696, "step": 26 }, { "epoch": 7.466666666666667, "grad_norm": 1.3806192874908447, "learning_rate": 0.00018133333333333334, "loss": 4.6356, "step": 28 }, { "epoch": 8.0, "grad_norm": 1.6404259204864502, "learning_rate": 0.00018, "loss": 4.6332, "step": 30 }, { "epoch": 8.533333333333333, "grad_norm": 1.2937849760055542, "learning_rate": 0.00017866666666666668, "loss": 4.6328, "step": 32 }, { "epoch": 9.066666666666666, "grad_norm": 1.6056703329086304, "learning_rate": 0.00017733333333333335, "loss": 4.4918, "step": 34 }, { "epoch": 9.6, "grad_norm": 1.609789490699768, "learning_rate": 0.00017600000000000002, "loss": 4.5626, "step": 36 }, { "epoch": 10.133333333333333, "grad_norm": 1.7872248888015747, "learning_rate": 0.00017466666666666667, "loss": 4.3717, "step": 38 }, { "epoch": 10.666666666666666, "grad_norm": 1.3249127864837646, "learning_rate": 0.00017333333333333334, "loss": 4.461, "step": 40 }, { "epoch": 11.2, "grad_norm": 1.613872766494751, "learning_rate": 0.000172, "loss": 4.4685, "step": 42 }, { "epoch": 11.733333333333333, "grad_norm": 1.3189940452575684, "learning_rate": 0.00017066666666666668, "loss": 4.4823, "step": 44 }, { "epoch": 12.266666666666667, "grad_norm": 1.381230354309082, "learning_rate": 0.00016933333333333335, "loss": 4.3209, "step": 46 }, { "epoch": 12.8, "grad_norm": 1.753049612045288, "learning_rate": 0.000168, "loss": 4.3607, "step": 48 }, { "epoch": 13.333333333333334, "grad_norm": 1.791304111480713, "learning_rate": 0.0001666666666666667, "loss": 4.3454, "step": 50 }, { "epoch": 13.866666666666667, "grad_norm": 1.5237058401107788, "learning_rate": 0.00016533333333333333, "loss": 4.337, "step": 52 }, { "epoch": 14.4, "grad_norm": 1.508701205253601, "learning_rate": 0.000164, "loss": 4.3174, "step": 54 }, { "epoch": 14.933333333333334, "grad_norm": 1.3160889148712158, "learning_rate": 0.00016266666666666667, "loss": 4.3048, "step": 56 }, { "epoch": 15.466666666666667, "grad_norm": 2.0741655826568604, "learning_rate": 0.00016133333333333334, "loss": 4.2962, "step": 58 }, { "epoch": 16.0, "grad_norm": 1.9378279447555542, "learning_rate": 0.00016, "loss": 4.2517, "step": 60 }, { "epoch": 16.533333333333335, "grad_norm": 2.626952648162842, "learning_rate": 0.00015866666666666668, "loss": 4.3802, "step": 62 }, { "epoch": 17.066666666666666, "grad_norm": 2.282458782196045, "learning_rate": 0.00015733333333333333, "loss": 4.0704, "step": 64 }, { "epoch": 17.6, "grad_norm": 1.3620326519012451, "learning_rate": 0.00015600000000000002, "loss": 4.3915, "step": 66 }, { "epoch": 18.133333333333333, "grad_norm": 1.2274025678634644, "learning_rate": 0.00015466666666666667, "loss": 4.0713, "step": 68 }, { "epoch": 18.666666666666668, "grad_norm": 1.383685827255249, "learning_rate": 0.00015333333333333334, "loss": 4.1094, "step": 70 }, { "epoch": 19.2, "grad_norm": 1.4509886503219604, "learning_rate": 0.000152, "loss": 4.1963, "step": 72 }, { "epoch": 19.733333333333334, "grad_norm": 1.327390432357788, "learning_rate": 0.00015066666666666668, "loss": 4.0569, "step": 74 }, { "epoch": 20.266666666666666, "grad_norm": 1.6511682271957397, "learning_rate": 0.00014933333333333335, "loss": 4.2426, "step": 76 }, { "epoch": 20.8, "grad_norm": 1.379820466041565, "learning_rate": 0.000148, "loss": 4.0468, "step": 78 }, { "epoch": 21.333333333333332, "grad_norm": 1.4640957117080688, "learning_rate": 0.00014666666666666666, "loss": 4.0385, "step": 80 }, { "epoch": 21.866666666666667, "grad_norm": 1.3565938472747803, "learning_rate": 0.00014533333333333333, "loss": 4.1265, "step": 82 }, { "epoch": 22.4, "grad_norm": 1.7414348125457764, "learning_rate": 0.000144, "loss": 3.9923, "step": 84 }, { "epoch": 22.933333333333334, "grad_norm": 1.5553879737854004, "learning_rate": 0.00014266666666666667, "loss": 4.1569, "step": 86 }, { "epoch": 23.466666666666665, "grad_norm": 1.8400905132293701, "learning_rate": 0.00014133333333333334, "loss": 4.0139, "step": 88 }, { "epoch": 24.0, "grad_norm": 1.6468483209609985, "learning_rate": 0.00014, "loss": 4.0731, "step": 90 }, { "epoch": 24.533333333333335, "grad_norm": 1.2724766731262207, "learning_rate": 0.00013866666666666669, "loss": 3.963, "step": 92 }, { "epoch": 25.066666666666666, "grad_norm": 1.5315759181976318, "learning_rate": 0.00013733333333333333, "loss": 4.0767, "step": 94 }, { "epoch": 25.6, "grad_norm": 1.4627431631088257, "learning_rate": 0.00013600000000000003, "loss": 4.0264, "step": 96 }, { "epoch": 26.133333333333333, "grad_norm": 1.1797367334365845, "learning_rate": 0.00013466666666666667, "loss": 4.002, "step": 98 }, { "epoch": 26.666666666666668, "grad_norm": 1.1659247875213623, "learning_rate": 0.00013333333333333334, "loss": 3.9323, "step": 100 }, { "epoch": 27.2, "grad_norm": 1.1997700929641724, "learning_rate": 0.000132, "loss": 3.9828, "step": 102 }, { "epoch": 27.733333333333334, "grad_norm": 1.3612560033798218, "learning_rate": 0.00013066666666666668, "loss": 3.9506, "step": 104 }, { "epoch": 28.266666666666666, "grad_norm": 1.3943043947219849, "learning_rate": 0.00012933333333333332, "loss": 3.9771, "step": 106 }, { "epoch": 28.8, "grad_norm": 1.4121628999710083, "learning_rate": 0.00012800000000000002, "loss": 3.9147, "step": 108 }, { "epoch": 29.333333333333332, "grad_norm": 1.3936829566955566, "learning_rate": 0.00012666666666666666, "loss": 3.8693, "step": 110 }, { "epoch": 29.866666666666667, "grad_norm": 1.2019048929214478, "learning_rate": 0.00012533333333333334, "loss": 3.9673, "step": 112 }, { "epoch": 30.4, "grad_norm": 1.4029520750045776, "learning_rate": 0.000124, "loss": 3.9296, "step": 114 }, { "epoch": 30.933333333333334, "grad_norm": 1.3513153791427612, "learning_rate": 0.00012266666666666668, "loss": 3.8406, "step": 116 }, { "epoch": 31.466666666666665, "grad_norm": 1.2894293069839478, "learning_rate": 0.00012133333333333335, "loss": 3.9678, "step": 118 }, { "epoch": 32.0, "grad_norm": 1.1996159553527832, "learning_rate": 0.00012, "loss": 3.824, "step": 120 }, { "epoch": 32.53333333333333, "grad_norm": 1.2499544620513916, "learning_rate": 0.00011866666666666669, "loss": 3.9474, "step": 122 }, { "epoch": 33.06666666666667, "grad_norm": 1.5120335817337036, "learning_rate": 0.00011733333333333334, "loss": 3.8489, "step": 124 }, { "epoch": 33.6, "grad_norm": 1.3104084730148315, "learning_rate": 0.000116, "loss": 3.8567, "step": 126 }, { "epoch": 34.13333333333333, "grad_norm": 1.3807789087295532, "learning_rate": 0.00011466666666666667, "loss": 3.7975, "step": 128 }, { "epoch": 34.666666666666664, "grad_norm": 1.4722609519958496, "learning_rate": 0.00011333333333333334, "loss": 3.9113, "step": 130 }, { "epoch": 35.2, "grad_norm": 1.6289302110671997, "learning_rate": 0.00011200000000000001, "loss": 3.791, "step": 132 }, { "epoch": 35.733333333333334, "grad_norm": 1.8681869506835938, "learning_rate": 0.00011066666666666667, "loss": 3.754, "step": 134 }, { "epoch": 36.266666666666666, "grad_norm": 1.5681208372116089, "learning_rate": 0.00010933333333333333, "loss": 3.6688, "step": 136 }, { "epoch": 36.8, "grad_norm": 1.2196656465530396, "learning_rate": 0.00010800000000000001, "loss": 3.9256, "step": 138 }, { "epoch": 37.333333333333336, "grad_norm": 1.4438775777816772, "learning_rate": 0.00010666666666666667, "loss": 3.7748, "step": 140 }, { "epoch": 37.86666666666667, "grad_norm": 1.2203658819198608, "learning_rate": 0.00010533333333333332, "loss": 3.839, "step": 142 }, { "epoch": 38.4, "grad_norm": 1.1427325010299683, "learning_rate": 0.00010400000000000001, "loss": 3.7725, "step": 144 }, { "epoch": 38.93333333333333, "grad_norm": 1.0757108926773071, "learning_rate": 0.00010266666666666666, "loss": 3.8459, "step": 146 }, { "epoch": 39.46666666666667, "grad_norm": 1.3734352588653564, "learning_rate": 0.00010133333333333335, "loss": 3.64, "step": 148 }, { "epoch": 40.0, "grad_norm": 1.3007618188858032, "learning_rate": 0.0001, "loss": 3.8641, "step": 150 }, { "epoch": 40.53333333333333, "grad_norm": 1.1311804056167603, "learning_rate": 9.866666666666668e-05, "loss": 3.7593, "step": 152 }, { "epoch": 41.06666666666667, "grad_norm": 1.4323419332504272, "learning_rate": 9.733333333333335e-05, "loss": 3.7318, "step": 154 }, { "epoch": 41.6, "grad_norm": 1.298574686050415, "learning_rate": 9.6e-05, "loss": 3.7567, "step": 156 }, { "epoch": 42.13333333333333, "grad_norm": 1.4180625677108765, "learning_rate": 9.466666666666667e-05, "loss": 3.7507, "step": 158 }, { "epoch": 42.666666666666664, "grad_norm": 1.311776876449585, "learning_rate": 9.333333333333334e-05, "loss": 3.7975, "step": 160 }, { "epoch": 43.2, "grad_norm": 1.2341830730438232, "learning_rate": 9.200000000000001e-05, "loss": 3.6367, "step": 162 }, { "epoch": 43.733333333333334, "grad_norm": 1.242844820022583, "learning_rate": 9.066666666666667e-05, "loss": 3.7197, "step": 164 }, { "epoch": 44.266666666666666, "grad_norm": 1.2008047103881836, "learning_rate": 8.933333333333334e-05, "loss": 3.7872, "step": 166 }, { "epoch": 44.8, "grad_norm": 1.3553142547607422, "learning_rate": 8.800000000000001e-05, "loss": 3.5827, "step": 168 }, { "epoch": 45.333333333333336, "grad_norm": 1.3207334280014038, "learning_rate": 8.666666666666667e-05, "loss": 3.8034, "step": 170 }, { "epoch": 45.86666666666667, "grad_norm": 1.3472046852111816, "learning_rate": 8.533333333333334e-05, "loss": 3.7445, "step": 172 }, { "epoch": 46.4, "grad_norm": 1.4812192916870117, "learning_rate": 8.4e-05, "loss": 3.6336, "step": 174 }, { "epoch": 46.93333333333333, "grad_norm": 2.008852005004883, "learning_rate": 8.266666666666667e-05, "loss": 3.7016, "step": 176 }, { "epoch": 47.46666666666667, "grad_norm": 1.6691290140151978, "learning_rate": 8.133333333333334e-05, "loss": 3.6785, "step": 178 }, { "epoch": 48.0, "grad_norm": 1.4747165441513062, "learning_rate": 8e-05, "loss": 3.668, "step": 180 }, { "epoch": 48.53333333333333, "grad_norm": 1.3272978067398071, "learning_rate": 7.866666666666666e-05, "loss": 3.7995, "step": 182 }, { "epoch": 49.06666666666667, "grad_norm": 1.1977958679199219, "learning_rate": 7.733333333333333e-05, "loss": 3.5753, "step": 184 }, { "epoch": 49.6, "grad_norm": 1.4208600521087646, "learning_rate": 7.6e-05, "loss": 3.6183, "step": 186 }, { "epoch": 50.13333333333333, "grad_norm": 1.2266496419906616, "learning_rate": 7.466666666666667e-05, "loss": 3.7525, "step": 188 }, { "epoch": 50.666666666666664, "grad_norm": 1.1905524730682373, "learning_rate": 7.333333333333333e-05, "loss": 3.5681, "step": 190 }, { "epoch": 51.2, "grad_norm": 1.1554759740829468, "learning_rate": 7.2e-05, "loss": 3.5788, "step": 192 }, { "epoch": 51.733333333333334, "grad_norm": 1.1419849395751953, "learning_rate": 7.066666666666667e-05, "loss": 3.7141, "step": 194 }, { "epoch": 52.266666666666666, "grad_norm": 1.2043012380599976, "learning_rate": 6.933333333333334e-05, "loss": 3.6421, "step": 196 }, { "epoch": 52.8, "grad_norm": 1.0960720777511597, "learning_rate": 6.800000000000001e-05, "loss": 3.6484, "step": 198 }, { "epoch": 53.333333333333336, "grad_norm": 1.1179126501083374, "learning_rate": 6.666666666666667e-05, "loss": 3.4974, "step": 200 }, { "epoch": 53.86666666666667, "grad_norm": 1.3456348180770874, "learning_rate": 6.533333333333334e-05, "loss": 3.7002, "step": 202 }, { "epoch": 54.4, "grad_norm": 1.1445540189743042, "learning_rate": 6.400000000000001e-05, "loss": 3.5583, "step": 204 }, { "epoch": 54.93333333333333, "grad_norm": 1.247029423713684, "learning_rate": 6.266666666666667e-05, "loss": 3.6645, "step": 206 }, { "epoch": 55.46666666666667, "grad_norm": 1.210913062095642, "learning_rate": 6.133333333333334e-05, "loss": 3.5581, "step": 208 }, { "epoch": 56.0, "grad_norm": 1.1455459594726562, "learning_rate": 6e-05, "loss": 3.679, "step": 210 }, { "epoch": 56.53333333333333, "grad_norm": 1.1794884204864502, "learning_rate": 5.866666666666667e-05, "loss": 3.6196, "step": 212 }, { "epoch": 57.06666666666667, "grad_norm": 1.2104743719100952, "learning_rate": 5.7333333333333336e-05, "loss": 3.566, "step": 214 }, { "epoch": 57.6, "grad_norm": 1.3371809720993042, "learning_rate": 5.6000000000000006e-05, "loss": 3.7143, "step": 216 }, { "epoch": 58.13333333333333, "grad_norm": 1.430527925491333, "learning_rate": 5.466666666666666e-05, "loss": 3.4442, "step": 218 }, { "epoch": 58.666666666666664, "grad_norm": 1.1653505563735962, "learning_rate": 5.333333333333333e-05, "loss": 3.5261, "step": 220 }, { "epoch": 59.2, "grad_norm": 1.17708158493042, "learning_rate": 5.2000000000000004e-05, "loss": 3.6556, "step": 222 }, { "epoch": 59.733333333333334, "grad_norm": 1.0106998682022095, "learning_rate": 5.0666666666666674e-05, "loss": 3.7191, "step": 224 }, { "epoch": 60.266666666666666, "grad_norm": 1.1047751903533936, "learning_rate": 4.933333333333334e-05, "loss": 3.4595, "step": 226 }, { "epoch": 60.8, "grad_norm": 1.0759046077728271, "learning_rate": 4.8e-05, "loss": 3.5661, "step": 228 }, { "epoch": 61.333333333333336, "grad_norm": 1.1332894563674927, "learning_rate": 4.666666666666667e-05, "loss": 3.5103, "step": 230 }, { "epoch": 61.86666666666667, "grad_norm": 1.0236306190490723, "learning_rate": 4.5333333333333335e-05, "loss": 3.5468, "step": 232 }, { "epoch": 62.4, "grad_norm": 0.97084641456604, "learning_rate": 4.4000000000000006e-05, "loss": 3.6628, "step": 234 }, { "epoch": 62.93333333333333, "grad_norm": 1.025275707244873, "learning_rate": 4.266666666666667e-05, "loss": 3.4807, "step": 236 }, { "epoch": 63.46666666666667, "grad_norm": 1.0704567432403564, "learning_rate": 4.133333333333333e-05, "loss": 3.6431, "step": 238 }, { "epoch": 64.0, "grad_norm": 1.0402157306671143, "learning_rate": 4e-05, "loss": 3.4682, "step": 240 }, { "epoch": 64.53333333333333, "grad_norm": 0.9403516054153442, "learning_rate": 3.866666666666667e-05, "loss": 3.5516, "step": 242 }, { "epoch": 65.06666666666666, "grad_norm": 1.120253086090088, "learning_rate": 3.733333333333334e-05, "loss": 3.4593, "step": 244 }, { "epoch": 65.6, "grad_norm": 1.1206554174423218, "learning_rate": 3.6e-05, "loss": 3.4822, "step": 246 }, { "epoch": 66.13333333333334, "grad_norm": 1.181155800819397, "learning_rate": 3.466666666666667e-05, "loss": 3.6441, "step": 248 }, { "epoch": 66.66666666666667, "grad_norm": 1.0042577981948853, "learning_rate": 3.3333333333333335e-05, "loss": 3.437, "step": 250 }, { "epoch": 67.2, "grad_norm": 1.0655186176300049, "learning_rate": 3.2000000000000005e-05, "loss": 3.6071, "step": 252 }, { "epoch": 67.73333333333333, "grad_norm": 1.0911762714385986, "learning_rate": 3.066666666666667e-05, "loss": 3.6135, "step": 254 }, { "epoch": 68.26666666666667, "grad_norm": 0.947772204875946, "learning_rate": 2.9333333333333336e-05, "loss": 3.4867, "step": 256 }, { "epoch": 68.8, "grad_norm": 1.002395749092102, "learning_rate": 2.8000000000000003e-05, "loss": 3.501, "step": 258 }, { "epoch": 69.33333333333333, "grad_norm": 1.0234873294830322, "learning_rate": 2.6666666666666667e-05, "loss": 3.4908, "step": 260 }, { "epoch": 69.86666666666666, "grad_norm": 1.1004796028137207, "learning_rate": 2.5333333333333337e-05, "loss": 3.6095, "step": 262 }, { "epoch": 70.4, "grad_norm": 1.1492009162902832, "learning_rate": 2.4e-05, "loss": 3.4027, "step": 264 }, { "epoch": 70.93333333333334, "grad_norm": 0.9846398830413818, "learning_rate": 2.2666666666666668e-05, "loss": 3.5456, "step": 266 }, { "epoch": 71.46666666666667, "grad_norm": 1.1093006134033203, "learning_rate": 2.1333333333333335e-05, "loss": 3.457, "step": 268 }, { "epoch": 72.0, "grad_norm": 0.9900301694869995, "learning_rate": 2e-05, "loss": 3.5602, "step": 270 }, { "epoch": 72.53333333333333, "grad_norm": 0.9894844889640808, "learning_rate": 1.866666666666667e-05, "loss": 3.4681, "step": 272 }, { "epoch": 73.06666666666666, "grad_norm": 1.0027010440826416, "learning_rate": 1.7333333333333336e-05, "loss": 3.5727, "step": 274 }, { "epoch": 73.6, "grad_norm": 0.9067515730857849, "learning_rate": 1.6000000000000003e-05, "loss": 3.4379, "step": 276 }, { "epoch": 74.13333333333334, "grad_norm": 0.9846177697181702, "learning_rate": 1.4666666666666668e-05, "loss": 3.49, "step": 278 }, { "epoch": 74.66666666666667, "grad_norm": 0.9469838738441467, "learning_rate": 1.3333333333333333e-05, "loss": 3.5143, "step": 280 }, { "epoch": 75.2, "grad_norm": 0.9074487686157227, "learning_rate": 1.2e-05, "loss": 3.4596, "step": 282 }, { "epoch": 75.73333333333333, "grad_norm": 0.8845421671867371, "learning_rate": 1.0666666666666667e-05, "loss": 3.4648, "step": 284 }, { "epoch": 76.26666666666667, "grad_norm": 0.9070376753807068, "learning_rate": 9.333333333333334e-06, "loss": 3.6296, "step": 286 }, { "epoch": 76.8, "grad_norm": 0.9411069750785828, "learning_rate": 8.000000000000001e-06, "loss": 3.4424, "step": 288 }, { "epoch": 77.33333333333333, "grad_norm": 0.8896852135658264, "learning_rate": 6.666666666666667e-06, "loss": 3.5589, "step": 290 }, { "epoch": 77.86666666666666, "grad_norm": 0.8958707451820374, "learning_rate": 5.333333333333334e-06, "loss": 3.3978, "step": 292 }, { "epoch": 78.4, "grad_norm": 0.8889992237091064, "learning_rate": 4.000000000000001e-06, "loss": 3.4738, "step": 294 }, { "epoch": 78.93333333333334, "grad_norm": 0.9154471755027771, "learning_rate": 2.666666666666667e-06, "loss": 3.5366, "step": 296 }, { "epoch": 79.46666666666667, "grad_norm": 0.8812463879585266, "learning_rate": 1.3333333333333334e-06, "loss": 3.4683, "step": 298 }, { "epoch": 80.0, "grad_norm": 0.8584585785865784, "learning_rate": 0.0, "loss": 3.5199, "step": 300 }, { "epoch": 80.0, "step": 300, "total_flos": 715681220927544.0, "train_loss": 3.9132511806488037, "train_runtime": 7847.3305, "train_samples_per_second": 0.765, "train_steps_per_second": 0.038 } ], "logging_steps": 2, "max_steps": 300, "num_input_tokens_seen": 0, "num_train_epochs": 100, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": false, "should_training_stop": false }, "attributes": {} } }, "total_flos": 715681220927544.0, "train_batch_size": 2, "trial_name": null, "trial_params": null }