{ "best_metric": null, "best_model_checkpoint": null, "epoch": 0.9386666666666666, "eval_steps": 500, "global_step": 110, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.008533333333333334, "grad_norm": 231.34270101410158, "learning_rate": 0.0, "loss": 8.0033, "step": 1 }, { "epoch": 0.017066666666666667, "grad_norm": 222.45613156024717, "learning_rate": 3.010299956639811e-07, "loss": 8.0428, "step": 2 }, { "epoch": 0.0256, "grad_norm": 215.11231622980122, "learning_rate": 4.771212547196623e-07, "loss": 8.1972, "step": 3 }, { "epoch": 0.034133333333333335, "grad_norm": 219.60924103962475, "learning_rate": 6.020599913279622e-07, "loss": 7.9839, "step": 4 }, { "epoch": 0.042666666666666665, "grad_norm": 215.38857509452538, "learning_rate": 6.989700043360186e-07, "loss": 7.9458, "step": 5 }, { "epoch": 0.0512, "grad_norm": 216.6292736162405, "learning_rate": 7.781512503836435e-07, "loss": 8.0918, "step": 6 }, { "epoch": 0.05973333333333333, "grad_norm": 221.48329860849555, "learning_rate": 8.450980400142567e-07, "loss": 7.6396, "step": 7 }, { "epoch": 0.06826666666666667, "grad_norm": 209.19887181519408, "learning_rate": 9.030899869919433e-07, "loss": 7.9538, "step": 8 }, { "epoch": 0.0768, "grad_norm": 212.49168182248923, "learning_rate": 9.542425094393247e-07, "loss": 7.956, "step": 9 }, { "epoch": 0.08533333333333333, "grad_norm": 210.10834258781824, "learning_rate": 9.999999999999997e-07, "loss": 7.8862, "step": 10 }, { "epoch": 0.09386666666666667, "grad_norm": 202.27608183186166, "learning_rate": 1.0413926851582248e-06, "loss": 7.4513, "step": 11 }, { "epoch": 0.1024, "grad_norm": 193.55936185702825, "learning_rate": 1.0791812460476246e-06, "loss": 7.4564, "step": 12 }, { "epoch": 0.11093333333333333, "grad_norm": 193.33017014294484, "learning_rate": 1.1139433523068364e-06, "loss": 6.787, "step": 13 }, { "epoch": 0.11946666666666667, "grad_norm": 184.58026709266622, "learning_rate": 1.1461280356782378e-06, "loss": 6.6556, "step": 14 }, { "epoch": 0.128, "grad_norm": 173.93108257115804, "learning_rate": 1.176091259055681e-06, "loss": 6.8126, "step": 15 }, { "epoch": 0.13653333333333334, "grad_norm": 159.06078707329158, "learning_rate": 1.2041199826559244e-06, "loss": 6.0696, "step": 16 }, { "epoch": 0.14506666666666668, "grad_norm": 144.47206558492545, "learning_rate": 1.230448921378274e-06, "loss": 5.8741, "step": 17 }, { "epoch": 0.1536, "grad_norm": 124.25199240731514, "learning_rate": 1.2552725051033058e-06, "loss": 6.4679, "step": 18 }, { "epoch": 0.16213333333333332, "grad_norm": 117.71459376788206, "learning_rate": 1.2787536009528286e-06, "loss": 5.8792, "step": 19 }, { "epoch": 0.17066666666666666, "grad_norm": 98.0143135672668, "learning_rate": 1.301029995663981e-06, "loss": 5.7364, "step": 20 }, { "epoch": 0.1792, "grad_norm": 70.62207198023327, "learning_rate": 1.322219294733919e-06, "loss": 6.1405, "step": 21 }, { "epoch": 0.18773333333333334, "grad_norm": 61.18474481475652, "learning_rate": 1.3424226808222062e-06, "loss": 5.5889, "step": 22 }, { "epoch": 0.19626666666666667, "grad_norm": 53.31741120769673, "learning_rate": 1.3617278360175927e-06, "loss": 5.3036, "step": 23 }, { "epoch": 0.2048, "grad_norm": 42.39349303788407, "learning_rate": 1.3802112417116059e-06, "loss": 5.9642, "step": 24 }, { "epoch": 0.21333333333333335, "grad_norm": 38.660534953497795, "learning_rate": 1.3979400086720373e-06, "loss": 6.0086, "step": 25 }, { "epoch": 0.22186666666666666, "grad_norm": 32.07764741790126, "learning_rate": 1.4149733479708177e-06, "loss": 5.6643, "step": 26 }, { "epoch": 0.2304, "grad_norm": 25.028488406885337, "learning_rate": 1.431363764158987e-06, "loss": 5.2058, "step": 27 }, { "epoch": 0.23893333333333333, "grad_norm": 26.07639533284245, "learning_rate": 1.4471580313422189e-06, "loss": 4.8004, "step": 28 }, { "epoch": 0.24746666666666667, "grad_norm": 21.2010515923868, "learning_rate": 1.4623979978989559e-06, "loss": 5.2692, "step": 29 }, { "epoch": 0.256, "grad_norm": 19.136682470240157, "learning_rate": 1.477121254719662e-06, "loss": 5.1682, "step": 30 }, { "epoch": 0.26453333333333334, "grad_norm": 22.363719632711973, "learning_rate": 1.4913616938342723e-06, "loss": 5.8755, "step": 31 }, { "epoch": 0.2730666666666667, "grad_norm": 18.759763083192176, "learning_rate": 1.5051499783199057e-06, "loss": 4.656, "step": 32 }, { "epoch": 0.2816, "grad_norm": 19.3591101676801, "learning_rate": 1.5185139398778872e-06, "loss": 5.0382, "step": 33 }, { "epoch": 0.29013333333333335, "grad_norm": 18.93526312077878, "learning_rate": 1.5314789170422548e-06, "loss": 5.2733, "step": 34 }, { "epoch": 0.2986666666666667, "grad_norm": 18.674257823898586, "learning_rate": 1.544068044350275e-06, "loss": 5.101, "step": 35 }, { "epoch": 0.3072, "grad_norm": 17.08780568204542, "learning_rate": 1.556302500767287e-06, "loss": 4.7201, "step": 36 }, { "epoch": 0.3157333333333333, "grad_norm": 19.267517838381355, "learning_rate": 1.5682017240669948e-06, "loss": 5.2867, "step": 37 }, { "epoch": 0.32426666666666665, "grad_norm": 18.184288973685927, "learning_rate": 1.57978359661681e-06, "loss": 5.1484, "step": 38 }, { "epoch": 0.3328, "grad_norm": 18.50588565713833, "learning_rate": 1.5910646070264987e-06, "loss": 5.0841, "step": 39 }, { "epoch": 0.3413333333333333, "grad_norm": 20.00324375550594, "learning_rate": 1.602059991327962e-06, "loss": 5.3427, "step": 40 }, { "epoch": 0.34986666666666666, "grad_norm": 18.167691169804883, "learning_rate": 1.6127838567197353e-06, "loss": 5.0728, "step": 41 }, { "epoch": 0.3584, "grad_norm": 18.674761969544367, "learning_rate": 1.6232492903979003e-06, "loss": 5.0627, "step": 42 }, { "epoch": 0.36693333333333333, "grad_norm": 17.20625840701983, "learning_rate": 1.633468455579586e-06, "loss": 4.7326, "step": 43 }, { "epoch": 0.37546666666666667, "grad_norm": 18.940586556170768, "learning_rate": 1.643452676486187e-06, "loss": 5.0623, "step": 44 }, { "epoch": 0.384, "grad_norm": 16.508592622361657, "learning_rate": 1.6532125137753431e-06, "loss": 4.3398, "step": 45 }, { "epoch": 0.39253333333333335, "grad_norm": 18.88828805204721, "learning_rate": 1.6627578316815738e-06, "loss": 4.9771, "step": 46 }, { "epoch": 0.4010666666666667, "grad_norm": 15.580054007792855, "learning_rate": 1.672097857935717e-06, "loss": 4.0601, "step": 47 }, { "epoch": 0.4096, "grad_norm": 17.934643242134936, "learning_rate": 1.6812412373755868e-06, "loss": 4.7386, "step": 48 }, { "epoch": 0.41813333333333336, "grad_norm": 16.802048621838498, "learning_rate": 1.6901960800285134e-06, "loss": 4.3118, "step": 49 }, { "epoch": 0.4266666666666667, "grad_norm": 18.92271445418054, "learning_rate": 1.6989700043360184e-06, "loss": 4.7678, "step": 50 }, { "epoch": 0.4352, "grad_norm": 16.825531514403565, "learning_rate": 1.707570176097936e-06, "loss": 4.09, "step": 51 }, { "epoch": 0.4437333333333333, "grad_norm": 17.235188635315886, "learning_rate": 1.716003343634799e-06, "loss": 4.2779, "step": 52 }, { "epoch": 0.45226666666666665, "grad_norm": 18.166659760546757, "learning_rate": 1.7242758696007888e-06, "loss": 4.2348, "step": 53 }, { "epoch": 0.4608, "grad_norm": 18.879052137730344, "learning_rate": 1.7323937598229684e-06, "loss": 4.4625, "step": 54 }, { "epoch": 0.4693333333333333, "grad_norm": 19.006170776563348, "learning_rate": 1.7403626894942437e-06, "loss": 4.2942, "step": 55 }, { "epoch": 0.47786666666666666, "grad_norm": 19.315665667678836, "learning_rate": 1.7481880270062002e-06, "loss": 4.1825, "step": 56 }, { "epoch": 0.4864, "grad_norm": 18.44355038438234, "learning_rate": 1.7558748556724912e-06, "loss": 3.8468, "step": 57 }, { "epoch": 0.49493333333333334, "grad_norm": 19.75148178529509, "learning_rate": 1.7634279935629368e-06, "loss": 4.099, "step": 58 }, { "epoch": 0.5034666666666666, "grad_norm": 19.002733535887344, "learning_rate": 1.7708520116421439e-06, "loss": 3.8604, "step": 59 }, { "epoch": 0.512, "grad_norm": 19.561516392754022, "learning_rate": 1.7781512503836432e-06, "loss": 3.7147, "step": 60 }, { "epoch": 0.5205333333333333, "grad_norm": 18.095989714574884, "learning_rate": 1.7853298350107666e-06, "loss": 3.4101, "step": 61 }, { "epoch": 0.5290666666666667, "grad_norm": 18.710104039370346, "learning_rate": 1.7923916894982536e-06, "loss": 3.3494, "step": 62 }, { "epoch": 0.5376, "grad_norm": 18.676494100466652, "learning_rate": 1.7993405494535814e-06, "loss": 3.2121, "step": 63 }, { "epoch": 0.5461333333333334, "grad_norm": 19.871653149070237, "learning_rate": 1.8061799739838866e-06, "loss": 3.3171, "step": 64 }, { "epoch": 0.5546666666666666, "grad_norm": 20.376954529048405, "learning_rate": 1.8129133566428552e-06, "loss": 3.3528, "step": 65 }, { "epoch": 0.5632, "grad_norm": 20.251598153805123, "learning_rate": 1.8195439355418683e-06, "loss": 3.1833, "step": 66 }, { "epoch": 0.5717333333333333, "grad_norm": 19.44626118241266, "learning_rate": 1.826074802700826e-06, "loss": 2.9975, "step": 67 }, { "epoch": 0.5802666666666667, "grad_norm": 18.230010490142433, "learning_rate": 1.8325089127062361e-06, "loss": 2.7141, "step": 68 }, { "epoch": 0.5888, "grad_norm": 19.672034786384422, "learning_rate": 1.8388490907372552e-06, "loss": 2.7342, "step": 69 }, { "epoch": 0.5973333333333334, "grad_norm": 20.431907892006116, "learning_rate": 1.8450980400142566e-06, "loss": 2.8332, "step": 70 }, { "epoch": 0.6058666666666667, "grad_norm": 20.936816395090222, "learning_rate": 1.851258348719075e-06, "loss": 2.6939, "step": 71 }, { "epoch": 0.6144, "grad_norm": 18.78824631153452, "learning_rate": 1.857332496431268e-06, "loss": 2.3357, "step": 72 }, { "epoch": 0.6229333333333333, "grad_norm": 19.94754779630663, "learning_rate": 1.8633228601204554e-06, "loss": 2.3903, "step": 73 }, { "epoch": 0.6314666666666666, "grad_norm": 20.795786885743603, "learning_rate": 1.8692317197309759e-06, "loss": 2.3105, "step": 74 }, { "epoch": 0.64, "grad_norm": 22.39299642885025, "learning_rate": 1.8750612633916996e-06, "loss": 2.3909, "step": 75 }, { "epoch": 0.6485333333333333, "grad_norm": 20.92445445380723, "learning_rate": 1.880813592280791e-06, "loss": 2.1323, "step": 76 }, { "epoch": 0.6570666666666667, "grad_norm": 19.657343750620992, "learning_rate": 1.8864907251724815e-06, "loss": 1.8835, "step": 77 }, { "epoch": 0.6656, "grad_norm": 20.47587021316379, "learning_rate": 1.89209460269048e-06, "loss": 1.8998, "step": 78 }, { "epoch": 0.6741333333333334, "grad_norm": 20.25205700634583, "learning_rate": 1.897627091290441e-06, "loss": 1.7855, "step": 79 }, { "epoch": 0.6826666666666666, "grad_norm": 21.14208582351207, "learning_rate": 1.903089986991943e-06, "loss": 1.8428, "step": 80 }, { "epoch": 0.6912, "grad_norm": 20.39475158794498, "learning_rate": 1.9084850188786494e-06, "loss": 1.7485, "step": 81 }, { "epoch": 0.6997333333333333, "grad_norm": 16.571971790449002, "learning_rate": 1.9138138523837166e-06, "loss": 1.4696, "step": 82 }, { "epoch": 0.7082666666666667, "grad_norm": 15.676999411458654, "learning_rate": 1.919078092376074e-06, "loss": 1.388, "step": 83 }, { "epoch": 0.7168, "grad_norm": 14.1970537594678, "learning_rate": 1.9242792860618812e-06, "loss": 1.361, "step": 84 }, { "epoch": 0.7253333333333334, "grad_norm": 12.809108973893466, "learning_rate": 1.9294189257142923e-06, "loss": 1.3529, "step": 85 }, { "epoch": 0.7338666666666667, "grad_norm": 12.601555234808817, "learning_rate": 1.934498451243567e-06, "loss": 1.3159, "step": 86 }, { "epoch": 0.7424, "grad_norm": 11.144989228891582, "learning_rate": 1.939519252618618e-06, "loss": 1.2511, "step": 87 }, { "epoch": 0.7509333333333333, "grad_norm": 9.96803209356588, "learning_rate": 1.9444826721501684e-06, "loss": 1.0659, "step": 88 }, { "epoch": 0.7594666666666666, "grad_norm": 12.566400178736489, "learning_rate": 1.949390006644912e-06, "loss": 1.1682, "step": 89 }, { "epoch": 0.768, "grad_norm": 13.274690475734735, "learning_rate": 1.9542425094393244e-06, "loss": 1.09, "step": 90 }, { "epoch": 0.7765333333333333, "grad_norm": 14.71924760305363, "learning_rate": 1.9590413923210933e-06, "loss": 1.0736, "step": 91 }, { "epoch": 0.7850666666666667, "grad_norm": 15.224266478058043, "learning_rate": 1.963787827345555e-06, "loss": 1.0324, "step": 92 }, { "epoch": 0.7936, "grad_norm": 15.73634400307161, "learning_rate": 1.968482948553935e-06, "loss": 1.0381, "step": 93 }, { "epoch": 0.8021333333333334, "grad_norm": 16.5663026295097, "learning_rate": 1.9731278535996984e-06, "loss": 0.9833, "step": 94 }, { "epoch": 0.8106666666666666, "grad_norm": 14.713574967698303, "learning_rate": 1.9777236052888472e-06, "loss": 0.8242, "step": 95 }, { "epoch": 0.8192, "grad_norm": 16.467974476225343, "learning_rate": 1.982271233039568e-06, "loss": 0.9301, "step": 96 }, { "epoch": 0.8277333333333333, "grad_norm": 16.39536283109591, "learning_rate": 1.9867717342662444e-06, "loss": 0.8342, "step": 97 }, { "epoch": 0.8362666666666667, "grad_norm": 16.834584306117144, "learning_rate": 1.9912260756924947e-06, "loss": 0.8117, "step": 98 }, { "epoch": 0.8448, "grad_norm": 14.449603139318016, "learning_rate": 1.9956351945975495e-06, "loss": 0.718, "step": 99 }, { "epoch": 0.8533333333333334, "grad_norm": 12.454426811073354, "learning_rate": 1.9999999999999995e-06, "loss": 0.6327, "step": 100 }, { "epoch": 0.8618666666666667, "grad_norm": 17.3183204974823, "learning_rate": 2e-06, "loss": 0.6041, "step": 101 }, { "epoch": 0.8704, "grad_norm": 13.572018144464437, "learning_rate": 2e-06, "loss": 0.5131, "step": 102 }, { "epoch": 0.8789333333333333, "grad_norm": 9.256319104232254, "learning_rate": 2e-06, "loss": 0.5273, "step": 103 }, { "epoch": 0.8874666666666666, "grad_norm": 7.425863956831629, "learning_rate": 2e-06, "loss": 0.4786, "step": 104 }, { "epoch": 0.896, "grad_norm": 8.97923808648426, "learning_rate": 2e-06, "loss": 0.4902, "step": 105 }, { "epoch": 0.9045333333333333, "grad_norm": 7.94937375079227, "learning_rate": 2e-06, "loss": 0.4941, "step": 106 }, { "epoch": 0.9130666666666667, "grad_norm": 7.729957259085908, "learning_rate": 2e-06, "loss": 0.4249, "step": 107 }, { "epoch": 0.9216, "grad_norm": 7.382589023982135, "learning_rate": 2e-06, "loss": 0.4148, "step": 108 }, { "epoch": 0.9301333333333334, "grad_norm": 6.478191175550658, "learning_rate": 2e-06, "loss": 0.3995, "step": 109 }, { "epoch": 0.9386666666666666, "grad_norm": 5.982915715313309, "learning_rate": 2e-06, "loss": 0.3787, "step": 110 } ], "logging_steps": 1, "max_steps": 301, "num_input_tokens_seen": 0, "num_train_epochs": 3, "save_steps": 10, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 1.7223626321549066e+18, "train_batch_size": 16, "trial_name": null, "trial_params": null }