|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 1.536, |
|
"eval_steps": 500, |
|
"global_step": 180, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008533333333333334, |
|
"grad_norm": 231.34270101410158, |
|
"learning_rate": 0.0, |
|
"loss": 8.0033, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.017066666666666667, |
|
"grad_norm": 222.45613156024717, |
|
"learning_rate": 3.010299956639811e-07, |
|
"loss": 8.0428, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.0256, |
|
"grad_norm": 215.11231622980122, |
|
"learning_rate": 4.771212547196623e-07, |
|
"loss": 8.1972, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.034133333333333335, |
|
"grad_norm": 219.60924103962475, |
|
"learning_rate": 6.020599913279622e-07, |
|
"loss": 7.9839, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 215.38857509452538, |
|
"learning_rate": 6.989700043360186e-07, |
|
"loss": 7.9458, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.0512, |
|
"grad_norm": 216.6292736162405, |
|
"learning_rate": 7.781512503836435e-07, |
|
"loss": 8.0918, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.05973333333333333, |
|
"grad_norm": 221.48329860849555, |
|
"learning_rate": 8.450980400142567e-07, |
|
"loss": 7.6396, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.06826666666666667, |
|
"grad_norm": 209.19887181519408, |
|
"learning_rate": 9.030899869919433e-07, |
|
"loss": 7.9538, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.0768, |
|
"grad_norm": 212.49168182248923, |
|
"learning_rate": 9.542425094393247e-07, |
|
"loss": 7.956, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 210.10834258781824, |
|
"learning_rate": 9.999999999999997e-07, |
|
"loss": 7.8862, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.09386666666666667, |
|
"grad_norm": 202.27608183186166, |
|
"learning_rate": 1.0413926851582248e-06, |
|
"loss": 7.4513, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.1024, |
|
"grad_norm": 193.55936185702825, |
|
"learning_rate": 1.0791812460476246e-06, |
|
"loss": 7.4564, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.11093333333333333, |
|
"grad_norm": 193.33017014294484, |
|
"learning_rate": 1.1139433523068364e-06, |
|
"loss": 6.787, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.11946666666666667, |
|
"grad_norm": 184.58026709266622, |
|
"learning_rate": 1.1461280356782378e-06, |
|
"loss": 6.6556, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 173.93108257115804, |
|
"learning_rate": 1.176091259055681e-06, |
|
"loss": 6.8126, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.13653333333333334, |
|
"grad_norm": 159.06078707329158, |
|
"learning_rate": 1.2041199826559244e-06, |
|
"loss": 6.0696, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.14506666666666668, |
|
"grad_norm": 144.47206558492545, |
|
"learning_rate": 1.230448921378274e-06, |
|
"loss": 5.8741, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.1536, |
|
"grad_norm": 124.25199240731514, |
|
"learning_rate": 1.2552725051033058e-06, |
|
"loss": 6.4679, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.16213333333333332, |
|
"grad_norm": 117.71459376788206, |
|
"learning_rate": 1.2787536009528286e-06, |
|
"loss": 5.8792, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 98.0143135672668, |
|
"learning_rate": 1.301029995663981e-06, |
|
"loss": 5.7364, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.1792, |
|
"grad_norm": 70.62207198023327, |
|
"learning_rate": 1.322219294733919e-06, |
|
"loss": 6.1405, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.18773333333333334, |
|
"grad_norm": 61.18474481475652, |
|
"learning_rate": 1.3424226808222062e-06, |
|
"loss": 5.5889, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.19626666666666667, |
|
"grad_norm": 53.31741120769673, |
|
"learning_rate": 1.3617278360175927e-06, |
|
"loss": 5.3036, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.2048, |
|
"grad_norm": 42.39349303788407, |
|
"learning_rate": 1.3802112417116059e-06, |
|
"loss": 5.9642, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 38.660534953497795, |
|
"learning_rate": 1.3979400086720373e-06, |
|
"loss": 6.0086, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.22186666666666666, |
|
"grad_norm": 32.07764741790126, |
|
"learning_rate": 1.4149733479708177e-06, |
|
"loss": 5.6643, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.2304, |
|
"grad_norm": 25.028488406885337, |
|
"learning_rate": 1.431363764158987e-06, |
|
"loss": 5.2058, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.23893333333333333, |
|
"grad_norm": 26.07639533284245, |
|
"learning_rate": 1.4471580313422189e-06, |
|
"loss": 4.8004, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.24746666666666667, |
|
"grad_norm": 21.2010515923868, |
|
"learning_rate": 1.4623979978989559e-06, |
|
"loss": 5.2692, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 19.136682470240157, |
|
"learning_rate": 1.477121254719662e-06, |
|
"loss": 5.1682, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.26453333333333334, |
|
"grad_norm": 22.363719632711973, |
|
"learning_rate": 1.4913616938342723e-06, |
|
"loss": 5.8755, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.2730666666666667, |
|
"grad_norm": 18.759763083192176, |
|
"learning_rate": 1.5051499783199057e-06, |
|
"loss": 4.656, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.2816, |
|
"grad_norm": 19.3591101676801, |
|
"learning_rate": 1.5185139398778872e-06, |
|
"loss": 5.0382, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.29013333333333335, |
|
"grad_norm": 18.93526312077878, |
|
"learning_rate": 1.5314789170422548e-06, |
|
"loss": 5.2733, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.2986666666666667, |
|
"grad_norm": 18.674257823898586, |
|
"learning_rate": 1.544068044350275e-06, |
|
"loss": 5.101, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.3072, |
|
"grad_norm": 17.08780568204542, |
|
"learning_rate": 1.556302500767287e-06, |
|
"loss": 4.7201, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.3157333333333333, |
|
"grad_norm": 19.267517838381355, |
|
"learning_rate": 1.5682017240669948e-06, |
|
"loss": 5.2867, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.32426666666666665, |
|
"grad_norm": 18.184288973685927, |
|
"learning_rate": 1.57978359661681e-06, |
|
"loss": 5.1484, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.3328, |
|
"grad_norm": 18.50588565713833, |
|
"learning_rate": 1.5910646070264987e-06, |
|
"loss": 5.0841, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.3413333333333333, |
|
"grad_norm": 20.00324375550594, |
|
"learning_rate": 1.602059991327962e-06, |
|
"loss": 5.3427, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.34986666666666666, |
|
"grad_norm": 18.167691169804883, |
|
"learning_rate": 1.6127838567197353e-06, |
|
"loss": 5.0728, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 0.3584, |
|
"grad_norm": 18.674761969544367, |
|
"learning_rate": 1.6232492903979003e-06, |
|
"loss": 5.0627, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 0.36693333333333333, |
|
"grad_norm": 17.20625840701983, |
|
"learning_rate": 1.633468455579586e-06, |
|
"loss": 4.7326, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 0.37546666666666667, |
|
"grad_norm": 18.940586556170768, |
|
"learning_rate": 1.643452676486187e-06, |
|
"loss": 5.0623, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 0.384, |
|
"grad_norm": 16.508592622361657, |
|
"learning_rate": 1.6532125137753431e-06, |
|
"loss": 4.3398, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 0.39253333333333335, |
|
"grad_norm": 18.88828805204721, |
|
"learning_rate": 1.6627578316815738e-06, |
|
"loss": 4.9771, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 0.4010666666666667, |
|
"grad_norm": 15.580054007792855, |
|
"learning_rate": 1.672097857935717e-06, |
|
"loss": 4.0601, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 0.4096, |
|
"grad_norm": 17.934643242134936, |
|
"learning_rate": 1.6812412373755868e-06, |
|
"loss": 4.7386, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 0.41813333333333336, |
|
"grad_norm": 16.802048621838498, |
|
"learning_rate": 1.6901960800285134e-06, |
|
"loss": 4.3118, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 0.4266666666666667, |
|
"grad_norm": 18.92271445418054, |
|
"learning_rate": 1.6989700043360184e-06, |
|
"loss": 4.7678, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.4352, |
|
"grad_norm": 16.825531514403565, |
|
"learning_rate": 1.707570176097936e-06, |
|
"loss": 4.09, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 0.4437333333333333, |
|
"grad_norm": 17.235188635315886, |
|
"learning_rate": 1.716003343634799e-06, |
|
"loss": 4.2779, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 0.45226666666666665, |
|
"grad_norm": 18.166659760546757, |
|
"learning_rate": 1.7242758696007888e-06, |
|
"loss": 4.2348, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 0.4608, |
|
"grad_norm": 18.879052137730344, |
|
"learning_rate": 1.7323937598229684e-06, |
|
"loss": 4.4625, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 0.4693333333333333, |
|
"grad_norm": 19.006170776563348, |
|
"learning_rate": 1.7403626894942437e-06, |
|
"loss": 4.2942, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 0.47786666666666666, |
|
"grad_norm": 19.315665667678836, |
|
"learning_rate": 1.7481880270062002e-06, |
|
"loss": 4.1825, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 0.4864, |
|
"grad_norm": 18.44355038438234, |
|
"learning_rate": 1.7558748556724912e-06, |
|
"loss": 3.8468, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 0.49493333333333334, |
|
"grad_norm": 19.75148178529509, |
|
"learning_rate": 1.7634279935629368e-06, |
|
"loss": 4.099, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 0.5034666666666666, |
|
"grad_norm": 19.002733535887344, |
|
"learning_rate": 1.7708520116421439e-06, |
|
"loss": 3.8604, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 0.512, |
|
"grad_norm": 19.561516392754022, |
|
"learning_rate": 1.7781512503836432e-06, |
|
"loss": 3.7147, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.5205333333333333, |
|
"grad_norm": 18.095989714574884, |
|
"learning_rate": 1.7853298350107666e-06, |
|
"loss": 3.4101, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 0.5290666666666667, |
|
"grad_norm": 18.710104039370346, |
|
"learning_rate": 1.7923916894982536e-06, |
|
"loss": 3.3494, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 0.5376, |
|
"grad_norm": 18.676494100466652, |
|
"learning_rate": 1.7993405494535814e-06, |
|
"loss": 3.2121, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 0.5461333333333334, |
|
"grad_norm": 19.871653149070237, |
|
"learning_rate": 1.8061799739838866e-06, |
|
"loss": 3.3171, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.5546666666666666, |
|
"grad_norm": 20.376954529048405, |
|
"learning_rate": 1.8129133566428552e-06, |
|
"loss": 3.3528, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 0.5632, |
|
"grad_norm": 20.251598153805123, |
|
"learning_rate": 1.8195439355418683e-06, |
|
"loss": 3.1833, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 0.5717333333333333, |
|
"grad_norm": 19.44626118241266, |
|
"learning_rate": 1.826074802700826e-06, |
|
"loss": 2.9975, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 0.5802666666666667, |
|
"grad_norm": 18.230010490142433, |
|
"learning_rate": 1.8325089127062361e-06, |
|
"loss": 2.7141, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 0.5888, |
|
"grad_norm": 19.672034786384422, |
|
"learning_rate": 1.8388490907372552e-06, |
|
"loss": 2.7342, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 0.5973333333333334, |
|
"grad_norm": 20.431907892006116, |
|
"learning_rate": 1.8450980400142566e-06, |
|
"loss": 2.8332, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.6058666666666667, |
|
"grad_norm": 20.936816395090222, |
|
"learning_rate": 1.851258348719075e-06, |
|
"loss": 2.6939, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 0.6144, |
|
"grad_norm": 18.78824631153452, |
|
"learning_rate": 1.857332496431268e-06, |
|
"loss": 2.3357, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 0.6229333333333333, |
|
"grad_norm": 19.94754779630663, |
|
"learning_rate": 1.8633228601204554e-06, |
|
"loss": 2.3903, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 0.6314666666666666, |
|
"grad_norm": 20.795786885743603, |
|
"learning_rate": 1.8692317197309759e-06, |
|
"loss": 2.3105, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"grad_norm": 22.39299642885025, |
|
"learning_rate": 1.8750612633916996e-06, |
|
"loss": 2.3909, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.6485333333333333, |
|
"grad_norm": 20.92445445380723, |
|
"learning_rate": 1.880813592280791e-06, |
|
"loss": 2.1323, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 0.6570666666666667, |
|
"grad_norm": 19.657343750620992, |
|
"learning_rate": 1.8864907251724815e-06, |
|
"loss": 1.8835, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 0.6656, |
|
"grad_norm": 20.47587021316379, |
|
"learning_rate": 1.89209460269048e-06, |
|
"loss": 1.8998, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 0.6741333333333334, |
|
"grad_norm": 20.25205700634583, |
|
"learning_rate": 1.897627091290441e-06, |
|
"loss": 1.7855, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 0.6826666666666666, |
|
"grad_norm": 21.14208582351207, |
|
"learning_rate": 1.903089986991943e-06, |
|
"loss": 1.8428, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.6912, |
|
"grad_norm": 20.39475158794498, |
|
"learning_rate": 1.9084850188786494e-06, |
|
"loss": 1.7485, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 0.6997333333333333, |
|
"grad_norm": 16.571971790449002, |
|
"learning_rate": 1.9138138523837166e-06, |
|
"loss": 1.4696, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 0.7082666666666667, |
|
"grad_norm": 15.676999411458654, |
|
"learning_rate": 1.919078092376074e-06, |
|
"loss": 1.388, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 0.7168, |
|
"grad_norm": 14.1970537594678, |
|
"learning_rate": 1.9242792860618812e-06, |
|
"loss": 1.361, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 0.7253333333333334, |
|
"grad_norm": 12.809108973893466, |
|
"learning_rate": 1.9294189257142923e-06, |
|
"loss": 1.3529, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 0.7338666666666667, |
|
"grad_norm": 12.601555234808817, |
|
"learning_rate": 1.934498451243567e-06, |
|
"loss": 1.3159, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 0.7424, |
|
"grad_norm": 11.144989228891582, |
|
"learning_rate": 1.939519252618618e-06, |
|
"loss": 1.2511, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 0.7509333333333333, |
|
"grad_norm": 9.96803209356588, |
|
"learning_rate": 1.9444826721501684e-06, |
|
"loss": 1.0659, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 0.7594666666666666, |
|
"grad_norm": 12.566400178736489, |
|
"learning_rate": 1.949390006644912e-06, |
|
"loss": 1.1682, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 0.768, |
|
"grad_norm": 13.274690475734735, |
|
"learning_rate": 1.9542425094393244e-06, |
|
"loss": 1.09, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.7765333333333333, |
|
"grad_norm": 14.71924760305363, |
|
"learning_rate": 1.9590413923210933e-06, |
|
"loss": 1.0736, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 0.7850666666666667, |
|
"grad_norm": 15.224266478058043, |
|
"learning_rate": 1.963787827345555e-06, |
|
"loss": 1.0324, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 0.7936, |
|
"grad_norm": 15.73634400307161, |
|
"learning_rate": 1.968482948553935e-06, |
|
"loss": 1.0381, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 0.8021333333333334, |
|
"grad_norm": 16.5663026295097, |
|
"learning_rate": 1.9731278535996984e-06, |
|
"loss": 0.9833, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 0.8106666666666666, |
|
"grad_norm": 14.713574967698303, |
|
"learning_rate": 1.9777236052888472e-06, |
|
"loss": 0.8242, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 0.8192, |
|
"grad_norm": 16.467974476225343, |
|
"learning_rate": 1.982271233039568e-06, |
|
"loss": 0.9301, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 0.8277333333333333, |
|
"grad_norm": 16.39536283109591, |
|
"learning_rate": 1.9867717342662444e-06, |
|
"loss": 0.8342, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 0.8362666666666667, |
|
"grad_norm": 16.834584306117144, |
|
"learning_rate": 1.9912260756924947e-06, |
|
"loss": 0.8117, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 0.8448, |
|
"grad_norm": 14.449603139318016, |
|
"learning_rate": 1.9956351945975495e-06, |
|
"loss": 0.718, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 0.8533333333333334, |
|
"grad_norm": 12.454426811073354, |
|
"learning_rate": 1.9999999999999995e-06, |
|
"loss": 0.6327, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.8618666666666667, |
|
"grad_norm": 17.3183204974823, |
|
"learning_rate": 2e-06, |
|
"loss": 0.6041, |
|
"step": 101 |
|
}, |
|
{ |
|
"epoch": 0.8704, |
|
"grad_norm": 13.572018144464437, |
|
"learning_rate": 2e-06, |
|
"loss": 0.5131, |
|
"step": 102 |
|
}, |
|
{ |
|
"epoch": 0.8789333333333333, |
|
"grad_norm": 9.256319104232254, |
|
"learning_rate": 2e-06, |
|
"loss": 0.5273, |
|
"step": 103 |
|
}, |
|
{ |
|
"epoch": 0.8874666666666666, |
|
"grad_norm": 7.425863956831629, |
|
"learning_rate": 2e-06, |
|
"loss": 0.4786, |
|
"step": 104 |
|
}, |
|
{ |
|
"epoch": 0.896, |
|
"grad_norm": 8.97923808648426, |
|
"learning_rate": 2e-06, |
|
"loss": 0.4902, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 0.9045333333333333, |
|
"grad_norm": 7.94937375079227, |
|
"learning_rate": 2e-06, |
|
"loss": 0.4941, |
|
"step": 106 |
|
}, |
|
{ |
|
"epoch": 0.9130666666666667, |
|
"grad_norm": 7.729957259085908, |
|
"learning_rate": 2e-06, |
|
"loss": 0.4249, |
|
"step": 107 |
|
}, |
|
{ |
|
"epoch": 0.9216, |
|
"grad_norm": 7.382589023982135, |
|
"learning_rate": 2e-06, |
|
"loss": 0.4148, |
|
"step": 108 |
|
}, |
|
{ |
|
"epoch": 0.9301333333333334, |
|
"grad_norm": 6.478191175550658, |
|
"learning_rate": 2e-06, |
|
"loss": 0.3995, |
|
"step": 109 |
|
}, |
|
{ |
|
"epoch": 0.9386666666666666, |
|
"grad_norm": 5.982915715313309, |
|
"learning_rate": 2e-06, |
|
"loss": 0.3787, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.9472, |
|
"grad_norm": 4.896676216886559, |
|
"learning_rate": 2e-06, |
|
"loss": 0.3324, |
|
"step": 111 |
|
}, |
|
{ |
|
"epoch": 0.9557333333333333, |
|
"grad_norm": 4.274518589330525, |
|
"learning_rate": 2e-06, |
|
"loss": 0.3323, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 0.9642666666666667, |
|
"grad_norm": 3.8910829818375, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2959, |
|
"step": 113 |
|
}, |
|
{ |
|
"epoch": 0.9728, |
|
"grad_norm": 3.7211299941728337, |
|
"learning_rate": 2e-06, |
|
"loss": 0.297, |
|
"step": 114 |
|
}, |
|
{ |
|
"epoch": 0.9813333333333333, |
|
"grad_norm": 3.283798245531902, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2667, |
|
"step": 115 |
|
}, |
|
{ |
|
"epoch": 0.9898666666666667, |
|
"grad_norm": 3.508078652121097, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2968, |
|
"step": 116 |
|
}, |
|
{ |
|
"epoch": 0.9984, |
|
"grad_norm": 3.5010931487735597, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2574, |
|
"step": 117 |
|
}, |
|
{ |
|
"epoch": 1.0069333333333332, |
|
"grad_norm": 3.3107051665235905, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2489, |
|
"step": 118 |
|
}, |
|
{ |
|
"epoch": 1.0154666666666667, |
|
"grad_norm": 2.60365618979484, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2505, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 1.024, |
|
"grad_norm": 2.4786955014392107, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2274, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 1.0325333333333333, |
|
"grad_norm": 2.8706599108871482, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2868, |
|
"step": 121 |
|
}, |
|
{ |
|
"epoch": 1.0410666666666666, |
|
"grad_norm": 3.3367705901809583, |
|
"learning_rate": 2e-06, |
|
"loss": 0.273, |
|
"step": 122 |
|
}, |
|
{ |
|
"epoch": 1.0496, |
|
"grad_norm": 2.0507711355777363, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2181, |
|
"step": 123 |
|
}, |
|
{ |
|
"epoch": 1.0581333333333334, |
|
"grad_norm": 2.050269304590008, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2229, |
|
"step": 124 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 1.9138641254623618, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2158, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 1.0752, |
|
"grad_norm": 1.7243593408385853, |
|
"learning_rate": 2e-06, |
|
"loss": 0.2144, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 1.0837333333333334, |
|
"grad_norm": 2.0841717622377667, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1734, |
|
"step": 127 |
|
}, |
|
{ |
|
"epoch": 1.0922666666666667, |
|
"grad_norm": 1.7715662019414709, |
|
"learning_rate": 2e-06, |
|
"loss": 0.192, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 1.1008, |
|
"grad_norm": 1.7802480590149752, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1879, |
|
"step": 129 |
|
}, |
|
{ |
|
"epoch": 1.1093333333333333, |
|
"grad_norm": 1.7527310994752934, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1979, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 1.1178666666666666, |
|
"grad_norm": 1.6688568823942918, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1894, |
|
"step": 131 |
|
}, |
|
{ |
|
"epoch": 1.1264, |
|
"grad_norm": 1.9228661315273043, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1863, |
|
"step": 132 |
|
}, |
|
{ |
|
"epoch": 1.1349333333333333, |
|
"grad_norm": 1.5840739308357017, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1509, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 1.1434666666666666, |
|
"grad_norm": 1.6155880007021268, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1508, |
|
"step": 134 |
|
}, |
|
{ |
|
"epoch": 1.152, |
|
"grad_norm": 1.5565556176306672, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1339, |
|
"step": 135 |
|
}, |
|
{ |
|
"epoch": 1.1605333333333334, |
|
"grad_norm": 1.2327392943177917, |
|
"learning_rate": 2e-06, |
|
"loss": 0.162, |
|
"step": 136 |
|
}, |
|
{ |
|
"epoch": 1.1690666666666667, |
|
"grad_norm": 1.1175126889594371, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1504, |
|
"step": 137 |
|
}, |
|
{ |
|
"epoch": 1.1776, |
|
"grad_norm": 1.0234683665505797, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1622, |
|
"step": 138 |
|
}, |
|
{ |
|
"epoch": 1.1861333333333333, |
|
"grad_norm": 0.8025189409961947, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1266, |
|
"step": 139 |
|
}, |
|
{ |
|
"epoch": 1.1946666666666665, |
|
"grad_norm": 0.917718049574188, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1333, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 1.2032, |
|
"grad_norm": 0.8553193541068539, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1007, |
|
"step": 141 |
|
}, |
|
{ |
|
"epoch": 1.2117333333333333, |
|
"grad_norm": 0.8517678389454441, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1359, |
|
"step": 142 |
|
}, |
|
{ |
|
"epoch": 1.2202666666666666, |
|
"grad_norm": 0.6950206358336558, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1446, |
|
"step": 143 |
|
}, |
|
{ |
|
"epoch": 1.2288000000000001, |
|
"grad_norm": 0.7307968218899772, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1401, |
|
"step": 144 |
|
}, |
|
{ |
|
"epoch": 1.2373333333333334, |
|
"grad_norm": 0.63300619575367, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1474, |
|
"step": 145 |
|
}, |
|
{ |
|
"epoch": 1.2458666666666667, |
|
"grad_norm": 0.6353347808938816, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1387, |
|
"step": 146 |
|
}, |
|
{ |
|
"epoch": 1.2544, |
|
"grad_norm": 0.5034304301868344, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1223, |
|
"step": 147 |
|
}, |
|
{ |
|
"epoch": 1.2629333333333332, |
|
"grad_norm": 0.5040806017733501, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1191, |
|
"step": 148 |
|
}, |
|
{ |
|
"epoch": 1.2714666666666667, |
|
"grad_norm": 0.4409461366225314, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0969, |
|
"step": 149 |
|
}, |
|
{ |
|
"epoch": 1.28, |
|
"grad_norm": 0.5127705546071599, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1088, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.2885333333333333, |
|
"grad_norm": 0.45510061969744225, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1003, |
|
"step": 151 |
|
}, |
|
{ |
|
"epoch": 1.2970666666666666, |
|
"grad_norm": 0.41758162851175296, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1247, |
|
"step": 152 |
|
}, |
|
{ |
|
"epoch": 1.3056, |
|
"grad_norm": 0.37704705762864665, |
|
"learning_rate": 2e-06, |
|
"loss": 0.103, |
|
"step": 153 |
|
}, |
|
{ |
|
"epoch": 1.3141333333333334, |
|
"grad_norm": 0.5586623569851862, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1601, |
|
"step": 154 |
|
}, |
|
{ |
|
"epoch": 1.3226666666666667, |
|
"grad_norm": 0.46195551422136105, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1374, |
|
"step": 155 |
|
}, |
|
{ |
|
"epoch": 1.3312, |
|
"grad_norm": 0.343093548707341, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0941, |
|
"step": 156 |
|
}, |
|
{ |
|
"epoch": 1.3397333333333332, |
|
"grad_norm": 0.39257169120413016, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0895, |
|
"step": 157 |
|
}, |
|
{ |
|
"epoch": 1.3482666666666667, |
|
"grad_norm": 0.4384934691842106, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0942, |
|
"step": 158 |
|
}, |
|
{ |
|
"epoch": 1.3568, |
|
"grad_norm": 0.35616301762971647, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1003, |
|
"step": 159 |
|
}, |
|
{ |
|
"epoch": 1.3653333333333333, |
|
"grad_norm": 0.29786532010683625, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1037, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 1.3738666666666668, |
|
"grad_norm": 0.2946397050466001, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0939, |
|
"step": 161 |
|
}, |
|
{ |
|
"epoch": 1.3824, |
|
"grad_norm": 0.3222496606745091, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1243, |
|
"step": 162 |
|
}, |
|
{ |
|
"epoch": 1.3909333333333334, |
|
"grad_norm": 0.32912983758734565, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1187, |
|
"step": 163 |
|
}, |
|
{ |
|
"epoch": 1.3994666666666666, |
|
"grad_norm": 0.2905712575341462, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1055, |
|
"step": 164 |
|
}, |
|
{ |
|
"epoch": 1.408, |
|
"grad_norm": 0.2546454307119994, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1127, |
|
"step": 165 |
|
}, |
|
{ |
|
"epoch": 1.4165333333333332, |
|
"grad_norm": 0.24261844656179513, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0877, |
|
"step": 166 |
|
}, |
|
{ |
|
"epoch": 1.4250666666666667, |
|
"grad_norm": 0.27532498274009637, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1041, |
|
"step": 167 |
|
}, |
|
{ |
|
"epoch": 1.4336, |
|
"grad_norm": 0.22379144098339965, |
|
"learning_rate": 2e-06, |
|
"loss": 0.107, |
|
"step": 168 |
|
}, |
|
{ |
|
"epoch": 1.4421333333333333, |
|
"grad_norm": 0.2553489194035564, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1024, |
|
"step": 169 |
|
}, |
|
{ |
|
"epoch": 1.4506666666666668, |
|
"grad_norm": 0.26786337913337943, |
|
"learning_rate": 2e-06, |
|
"loss": 0.112, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 1.4592, |
|
"grad_norm": 0.21817003581749791, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1017, |
|
"step": 171 |
|
}, |
|
{ |
|
"epoch": 1.4677333333333333, |
|
"grad_norm": 0.248801300603125, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1074, |
|
"step": 172 |
|
}, |
|
{ |
|
"epoch": 1.4762666666666666, |
|
"grad_norm": 0.20753754481502557, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0584, |
|
"step": 173 |
|
}, |
|
{ |
|
"epoch": 1.4848, |
|
"grad_norm": 0.21283270546700547, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0925, |
|
"step": 174 |
|
}, |
|
{ |
|
"epoch": 1.4933333333333334, |
|
"grad_norm": 0.20676886828247096, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0934, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 1.5018666666666667, |
|
"grad_norm": 0.2107516370604524, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1065, |
|
"step": 176 |
|
}, |
|
{ |
|
"epoch": 1.5104, |
|
"grad_norm": 0.18723401435843423, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0888, |
|
"step": 177 |
|
}, |
|
{ |
|
"epoch": 1.5189333333333335, |
|
"grad_norm": 0.17168054092247184, |
|
"learning_rate": 2e-06, |
|
"loss": 0.0839, |
|
"step": 178 |
|
}, |
|
{ |
|
"epoch": 1.5274666666666668, |
|
"grad_norm": 0.22217432369323692, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1114, |
|
"step": 179 |
|
}, |
|
{ |
|
"epoch": 1.536, |
|
"grad_norm": 0.20054756436379942, |
|
"learning_rate": 2e-06, |
|
"loss": 0.1059, |
|
"step": 180 |
|
} |
|
], |
|
"logging_steps": 1, |
|
"max_steps": 301, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 3, |
|
"save_steps": 10, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 2.834094922578002e+18, |
|
"train_batch_size": 16, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|