|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 0.3333333333333333, |
|
"eval_steps": 500, |
|
"global_step": 1000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.0003333333333333333, |
|
"grad_norm": 3.953395366668701, |
|
"learning_rate": 1.6666666666666668e-07, |
|
"loss": 0.9747, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 0.0006666666666666666, |
|
"grad_norm": 3.7105355262756348, |
|
"learning_rate": 3.3333333333333335e-07, |
|
"loss": 0.8304, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.001, |
|
"grad_norm": 6.670517444610596, |
|
"learning_rate": 5.000000000000001e-07, |
|
"loss": 0.9317, |
|
"step": 3 |
|
}, |
|
{ |
|
"epoch": 0.0013333333333333333, |
|
"grad_norm": 4.584139347076416, |
|
"learning_rate": 6.666666666666667e-07, |
|
"loss": 0.9126, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.0016666666666666668, |
|
"grad_norm": 3.9163777828216553, |
|
"learning_rate": 8.333333333333333e-07, |
|
"loss": 0.8644, |
|
"step": 5 |
|
}, |
|
{ |
|
"epoch": 0.002, |
|
"grad_norm": 3.7514755725860596, |
|
"learning_rate": 1.0000000000000002e-06, |
|
"loss": 0.8892, |
|
"step": 6 |
|
}, |
|
{ |
|
"epoch": 0.0023333333333333335, |
|
"grad_norm": 3.733147621154785, |
|
"learning_rate": 1.1666666666666668e-06, |
|
"loss": 0.8965, |
|
"step": 7 |
|
}, |
|
{ |
|
"epoch": 0.0026666666666666666, |
|
"grad_norm": 3.3413407802581787, |
|
"learning_rate": 1.3333333333333334e-06, |
|
"loss": 0.7998, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.003, |
|
"grad_norm": 2.669220447540283, |
|
"learning_rate": 1.5e-06, |
|
"loss": 0.7651, |
|
"step": 9 |
|
}, |
|
{ |
|
"epoch": 0.0033333333333333335, |
|
"grad_norm": 2.563971757888794, |
|
"learning_rate": 1.6666666666666667e-06, |
|
"loss": 0.7428, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.0036666666666666666, |
|
"grad_norm": 3.6352648735046387, |
|
"learning_rate": 1.8333333333333335e-06, |
|
"loss": 0.7849, |
|
"step": 11 |
|
}, |
|
{ |
|
"epoch": 0.004, |
|
"grad_norm": 2.3276443481445312, |
|
"learning_rate": 2.0000000000000003e-06, |
|
"loss": 0.6952, |
|
"step": 12 |
|
}, |
|
{ |
|
"epoch": 0.004333333333333333, |
|
"grad_norm": 2.1801578998565674, |
|
"learning_rate": 2.166666666666667e-06, |
|
"loss": 0.73, |
|
"step": 13 |
|
}, |
|
{ |
|
"epoch": 0.004666666666666667, |
|
"grad_norm": 2.4430813789367676, |
|
"learning_rate": 2.3333333333333336e-06, |
|
"loss": 0.7127, |
|
"step": 14 |
|
}, |
|
{ |
|
"epoch": 0.005, |
|
"grad_norm": 2.101902961730957, |
|
"learning_rate": 2.5e-06, |
|
"loss": 0.7021, |
|
"step": 15 |
|
}, |
|
{ |
|
"epoch": 0.005333333333333333, |
|
"grad_norm": 1.8234139680862427, |
|
"learning_rate": 2.666666666666667e-06, |
|
"loss": 0.6086, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.005666666666666667, |
|
"grad_norm": 1.7481471300125122, |
|
"learning_rate": 2.8333333333333335e-06, |
|
"loss": 0.565, |
|
"step": 17 |
|
}, |
|
{ |
|
"epoch": 0.006, |
|
"grad_norm": 1.9656072854995728, |
|
"learning_rate": 3e-06, |
|
"loss": 0.6514, |
|
"step": 18 |
|
}, |
|
{ |
|
"epoch": 0.006333333333333333, |
|
"grad_norm": 2.0986952781677246, |
|
"learning_rate": 3.166666666666667e-06, |
|
"loss": 0.6746, |
|
"step": 19 |
|
}, |
|
{ |
|
"epoch": 0.006666666666666667, |
|
"grad_norm": 2.565603017807007, |
|
"learning_rate": 3.3333333333333333e-06, |
|
"loss": 0.6086, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.007, |
|
"grad_norm": 1.5754969120025635, |
|
"learning_rate": 3.5000000000000004e-06, |
|
"loss": 0.4919, |
|
"step": 21 |
|
}, |
|
{ |
|
"epoch": 0.007333333333333333, |
|
"grad_norm": 1.8095873594284058, |
|
"learning_rate": 3.666666666666667e-06, |
|
"loss": 0.5612, |
|
"step": 22 |
|
}, |
|
{ |
|
"epoch": 0.007666666666666666, |
|
"grad_norm": 1.721886396408081, |
|
"learning_rate": 3.833333333333334e-06, |
|
"loss": 0.5356, |
|
"step": 23 |
|
}, |
|
{ |
|
"epoch": 0.008, |
|
"grad_norm": 2.14868426322937, |
|
"learning_rate": 4.000000000000001e-06, |
|
"loss": 0.5967, |
|
"step": 24 |
|
}, |
|
{ |
|
"epoch": 0.008333333333333333, |
|
"grad_norm": 1.7181668281555176, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 0.5642, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.008666666666666666, |
|
"grad_norm": 1.891082525253296, |
|
"learning_rate": 4.333333333333334e-06, |
|
"loss": 0.5229, |
|
"step": 26 |
|
}, |
|
{ |
|
"epoch": 0.009, |
|
"grad_norm": 1.5455230474472046, |
|
"learning_rate": 4.5e-06, |
|
"loss": 0.5411, |
|
"step": 27 |
|
}, |
|
{ |
|
"epoch": 0.009333333333333334, |
|
"grad_norm": 3.7377946376800537, |
|
"learning_rate": 4.666666666666667e-06, |
|
"loss": 0.5927, |
|
"step": 28 |
|
}, |
|
{ |
|
"epoch": 0.009666666666666667, |
|
"grad_norm": 2.113539218902588, |
|
"learning_rate": 4.833333333333333e-06, |
|
"loss": 0.4808, |
|
"step": 29 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"grad_norm": 1.7574840784072876, |
|
"learning_rate": 5e-06, |
|
"loss": 0.5038, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.010333333333333333, |
|
"grad_norm": 1.6850998401641846, |
|
"learning_rate": 5.166666666666667e-06, |
|
"loss": 0.457, |
|
"step": 31 |
|
}, |
|
{ |
|
"epoch": 0.010666666666666666, |
|
"grad_norm": 2.484438180923462, |
|
"learning_rate": 5.333333333333334e-06, |
|
"loss": 0.4746, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.011, |
|
"grad_norm": 1.663460373878479, |
|
"learning_rate": 5.500000000000001e-06, |
|
"loss": 0.4883, |
|
"step": 33 |
|
}, |
|
{ |
|
"epoch": 0.011333333333333334, |
|
"grad_norm": 1.6798481941223145, |
|
"learning_rate": 5.666666666666667e-06, |
|
"loss": 0.4467, |
|
"step": 34 |
|
}, |
|
{ |
|
"epoch": 0.011666666666666667, |
|
"grad_norm": 1.7533687353134155, |
|
"learning_rate": 5.833333333333334e-06, |
|
"loss": 0.4775, |
|
"step": 35 |
|
}, |
|
{ |
|
"epoch": 0.012, |
|
"grad_norm": 1.9110267162322998, |
|
"learning_rate": 6e-06, |
|
"loss": 0.4316, |
|
"step": 36 |
|
}, |
|
{ |
|
"epoch": 0.012333333333333333, |
|
"grad_norm": 1.731864333152771, |
|
"learning_rate": 6.166666666666667e-06, |
|
"loss": 0.4988, |
|
"step": 37 |
|
}, |
|
{ |
|
"epoch": 0.012666666666666666, |
|
"grad_norm": 1.82390558719635, |
|
"learning_rate": 6.333333333333334e-06, |
|
"loss": 0.466, |
|
"step": 38 |
|
}, |
|
{ |
|
"epoch": 0.013, |
|
"grad_norm": 1.8916178941726685, |
|
"learning_rate": 6.5000000000000004e-06, |
|
"loss": 0.4821, |
|
"step": 39 |
|
}, |
|
{ |
|
"epoch": 0.013333333333333334, |
|
"grad_norm": 1.750315546989441, |
|
"learning_rate": 6.666666666666667e-06, |
|
"loss": 0.444, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.013666666666666667, |
|
"grad_norm": 1.6363168954849243, |
|
"learning_rate": 6.833333333333333e-06, |
|
"loss": 0.372, |
|
"step": 41 |
|
}, |
|
{ |
|
"epoch": 0.014, |
|
"grad_norm": 1.7785207033157349, |
|
"learning_rate": 7.000000000000001e-06, |
|
"loss": 0.3779, |
|
"step": 42 |
|
}, |
|
{ |
|
"epoch": 0.014333333333333333, |
|
"grad_norm": 1.7099310159683228, |
|
"learning_rate": 7.166666666666667e-06, |
|
"loss": 0.4722, |
|
"step": 43 |
|
}, |
|
{ |
|
"epoch": 0.014666666666666666, |
|
"grad_norm": 1.3298712968826294, |
|
"learning_rate": 7.333333333333334e-06, |
|
"loss": 0.3492, |
|
"step": 44 |
|
}, |
|
{ |
|
"epoch": 0.015, |
|
"grad_norm": 1.817345142364502, |
|
"learning_rate": 7.5e-06, |
|
"loss": 0.4189, |
|
"step": 45 |
|
}, |
|
{ |
|
"epoch": 0.015333333333333332, |
|
"grad_norm": 1.3972567319869995, |
|
"learning_rate": 7.666666666666667e-06, |
|
"loss": 0.3355, |
|
"step": 46 |
|
}, |
|
{ |
|
"epoch": 0.015666666666666666, |
|
"grad_norm": 1.35780668258667, |
|
"learning_rate": 7.833333333333333e-06, |
|
"loss": 0.3737, |
|
"step": 47 |
|
}, |
|
{ |
|
"epoch": 0.016, |
|
"grad_norm": 1.6960091590881348, |
|
"learning_rate": 8.000000000000001e-06, |
|
"loss": 0.4332, |
|
"step": 48 |
|
}, |
|
{ |
|
"epoch": 0.01633333333333333, |
|
"grad_norm": 1.568686842918396, |
|
"learning_rate": 8.166666666666668e-06, |
|
"loss": 0.3888, |
|
"step": 49 |
|
}, |
|
{ |
|
"epoch": 0.016666666666666666, |
|
"grad_norm": 1.4132697582244873, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.3322, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.017, |
|
"grad_norm": 1.659246802330017, |
|
"learning_rate": 8.500000000000002e-06, |
|
"loss": 0.4567, |
|
"step": 51 |
|
}, |
|
{ |
|
"epoch": 0.017333333333333333, |
|
"grad_norm": 1.9844367504119873, |
|
"learning_rate": 8.666666666666668e-06, |
|
"loss": 0.3974, |
|
"step": 52 |
|
}, |
|
{ |
|
"epoch": 0.017666666666666667, |
|
"grad_norm": 1.6027755737304688, |
|
"learning_rate": 8.833333333333334e-06, |
|
"loss": 0.3917, |
|
"step": 53 |
|
}, |
|
{ |
|
"epoch": 0.018, |
|
"grad_norm": 1.453019618988037, |
|
"learning_rate": 9e-06, |
|
"loss": 0.3336, |
|
"step": 54 |
|
}, |
|
{ |
|
"epoch": 0.018333333333333333, |
|
"grad_norm": 1.4241881370544434, |
|
"learning_rate": 9.166666666666666e-06, |
|
"loss": 0.3451, |
|
"step": 55 |
|
}, |
|
{ |
|
"epoch": 0.018666666666666668, |
|
"grad_norm": 1.5545347929000854, |
|
"learning_rate": 9.333333333333334e-06, |
|
"loss": 0.3593, |
|
"step": 56 |
|
}, |
|
{ |
|
"epoch": 0.019, |
|
"grad_norm": 1.2675824165344238, |
|
"learning_rate": 9.5e-06, |
|
"loss": 0.3397, |
|
"step": 57 |
|
}, |
|
{ |
|
"epoch": 0.019333333333333334, |
|
"grad_norm": 1.5485769510269165, |
|
"learning_rate": 9.666666666666667e-06, |
|
"loss": 0.3582, |
|
"step": 58 |
|
}, |
|
{ |
|
"epoch": 0.019666666666666666, |
|
"grad_norm": 1.6267204284667969, |
|
"learning_rate": 9.833333333333333e-06, |
|
"loss": 0.3371, |
|
"step": 59 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"grad_norm": 1.4819341897964478, |
|
"learning_rate": 1e-05, |
|
"loss": 0.3979, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.02033333333333333, |
|
"grad_norm": 1.523547887802124, |
|
"learning_rate": 1.0166666666666667e-05, |
|
"loss": 0.39, |
|
"step": 61 |
|
}, |
|
{ |
|
"epoch": 0.020666666666666667, |
|
"grad_norm": 1.4726427793502808, |
|
"learning_rate": 1.0333333333333333e-05, |
|
"loss": 0.356, |
|
"step": 62 |
|
}, |
|
{ |
|
"epoch": 0.021, |
|
"grad_norm": 1.332187533378601, |
|
"learning_rate": 1.05e-05, |
|
"loss": 0.3099, |
|
"step": 63 |
|
}, |
|
{ |
|
"epoch": 0.021333333333333333, |
|
"grad_norm": 1.4094098806381226, |
|
"learning_rate": 1.0666666666666667e-05, |
|
"loss": 0.3192, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.021666666666666667, |
|
"grad_norm": 1.6353566646575928, |
|
"learning_rate": 1.0833333333333334e-05, |
|
"loss": 0.3261, |
|
"step": 65 |
|
}, |
|
{ |
|
"epoch": 0.022, |
|
"grad_norm": 1.5030579566955566, |
|
"learning_rate": 1.1000000000000001e-05, |
|
"loss": 0.3929, |
|
"step": 66 |
|
}, |
|
{ |
|
"epoch": 0.022333333333333334, |
|
"grad_norm": 2.1083621978759766, |
|
"learning_rate": 1.1166666666666668e-05, |
|
"loss": 0.461, |
|
"step": 67 |
|
}, |
|
{ |
|
"epoch": 0.02266666666666667, |
|
"grad_norm": 1.6705724000930786, |
|
"learning_rate": 1.1333333333333334e-05, |
|
"loss": 0.3947, |
|
"step": 68 |
|
}, |
|
{ |
|
"epoch": 0.023, |
|
"grad_norm": 1.413004994392395, |
|
"learning_rate": 1.1500000000000002e-05, |
|
"loss": 0.3224, |
|
"step": 69 |
|
}, |
|
{ |
|
"epoch": 0.023333333333333334, |
|
"grad_norm": 1.6950210332870483, |
|
"learning_rate": 1.1666666666666668e-05, |
|
"loss": 0.3763, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.023666666666666666, |
|
"grad_norm": 1.4866547584533691, |
|
"learning_rate": 1.1833333333333334e-05, |
|
"loss": 0.3239, |
|
"step": 71 |
|
}, |
|
{ |
|
"epoch": 0.024, |
|
"grad_norm": 1.546217441558838, |
|
"learning_rate": 1.2e-05, |
|
"loss": 0.3684, |
|
"step": 72 |
|
}, |
|
{ |
|
"epoch": 0.024333333333333332, |
|
"grad_norm": 1.6388611793518066, |
|
"learning_rate": 1.2166666666666668e-05, |
|
"loss": 0.342, |
|
"step": 73 |
|
}, |
|
{ |
|
"epoch": 0.024666666666666667, |
|
"grad_norm": 1.426133155822754, |
|
"learning_rate": 1.2333333333333334e-05, |
|
"loss": 0.2835, |
|
"step": 74 |
|
}, |
|
{ |
|
"epoch": 0.025, |
|
"grad_norm": 1.5605098009109497, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.3053, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.025333333333333333, |
|
"grad_norm": 2.0954012870788574, |
|
"learning_rate": 1.2666666666666668e-05, |
|
"loss": 0.3634, |
|
"step": 76 |
|
}, |
|
{ |
|
"epoch": 0.025666666666666667, |
|
"grad_norm": 1.7222869396209717, |
|
"learning_rate": 1.2833333333333333e-05, |
|
"loss": 0.4678, |
|
"step": 77 |
|
}, |
|
{ |
|
"epoch": 0.026, |
|
"grad_norm": 2.151477813720703, |
|
"learning_rate": 1.3000000000000001e-05, |
|
"loss": 0.3732, |
|
"step": 78 |
|
}, |
|
{ |
|
"epoch": 0.026333333333333334, |
|
"grad_norm": 1.4184696674346924, |
|
"learning_rate": 1.3166666666666665e-05, |
|
"loss": 0.3863, |
|
"step": 79 |
|
}, |
|
{ |
|
"epoch": 0.02666666666666667, |
|
"grad_norm": 1.5404107570648193, |
|
"learning_rate": 1.3333333333333333e-05, |
|
"loss": 0.3362, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.027, |
|
"grad_norm": 1.4057250022888184, |
|
"learning_rate": 1.3500000000000001e-05, |
|
"loss": 0.3278, |
|
"step": 81 |
|
}, |
|
{ |
|
"epoch": 0.027333333333333334, |
|
"grad_norm": 1.4827985763549805, |
|
"learning_rate": 1.3666666666666666e-05, |
|
"loss": 0.3566, |
|
"step": 82 |
|
}, |
|
{ |
|
"epoch": 0.027666666666666666, |
|
"grad_norm": 1.567644476890564, |
|
"learning_rate": 1.3833333333333334e-05, |
|
"loss": 0.3622, |
|
"step": 83 |
|
}, |
|
{ |
|
"epoch": 0.028, |
|
"grad_norm": 1.6166788339614868, |
|
"learning_rate": 1.4000000000000001e-05, |
|
"loss": 0.3744, |
|
"step": 84 |
|
}, |
|
{ |
|
"epoch": 0.028333333333333332, |
|
"grad_norm": 1.5404103994369507, |
|
"learning_rate": 1.4166666666666668e-05, |
|
"loss": 0.3182, |
|
"step": 85 |
|
}, |
|
{ |
|
"epoch": 0.028666666666666667, |
|
"grad_norm": 1.6452393531799316, |
|
"learning_rate": 1.4333333333333334e-05, |
|
"loss": 0.3414, |
|
"step": 86 |
|
}, |
|
{ |
|
"epoch": 0.029, |
|
"grad_norm": 1.4937787055969238, |
|
"learning_rate": 1.45e-05, |
|
"loss": 0.3932, |
|
"step": 87 |
|
}, |
|
{ |
|
"epoch": 0.029333333333333333, |
|
"grad_norm": 1.7709240913391113, |
|
"learning_rate": 1.4666666666666668e-05, |
|
"loss": 0.4493, |
|
"step": 88 |
|
}, |
|
{ |
|
"epoch": 0.029666666666666668, |
|
"grad_norm": 1.826235055923462, |
|
"learning_rate": 1.4833333333333336e-05, |
|
"loss": 0.4358, |
|
"step": 89 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"grad_norm": 1.2349361181259155, |
|
"learning_rate": 1.5e-05, |
|
"loss": 0.3008, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.030333333333333334, |
|
"grad_norm": 1.6294262409210205, |
|
"learning_rate": 1.5166666666666668e-05, |
|
"loss": 0.3861, |
|
"step": 91 |
|
}, |
|
{ |
|
"epoch": 0.030666666666666665, |
|
"grad_norm": 1.4110265970230103, |
|
"learning_rate": 1.5333333333333334e-05, |
|
"loss": 0.3231, |
|
"step": 92 |
|
}, |
|
{ |
|
"epoch": 0.031, |
|
"grad_norm": 1.3174939155578613, |
|
"learning_rate": 1.55e-05, |
|
"loss": 0.3513, |
|
"step": 93 |
|
}, |
|
{ |
|
"epoch": 0.03133333333333333, |
|
"grad_norm": 1.34541916847229, |
|
"learning_rate": 1.5666666666666667e-05, |
|
"loss": 0.2929, |
|
"step": 94 |
|
}, |
|
{ |
|
"epoch": 0.03166666666666667, |
|
"grad_norm": 1.528634786605835, |
|
"learning_rate": 1.5833333333333333e-05, |
|
"loss": 0.3563, |
|
"step": 95 |
|
}, |
|
{ |
|
"epoch": 0.032, |
|
"grad_norm": 1.9558664560317993, |
|
"learning_rate": 1.6000000000000003e-05, |
|
"loss": 0.4464, |
|
"step": 96 |
|
}, |
|
{ |
|
"epoch": 0.03233333333333333, |
|
"grad_norm": 1.5986521244049072, |
|
"learning_rate": 1.6166666666666665e-05, |
|
"loss": 0.3489, |
|
"step": 97 |
|
}, |
|
{ |
|
"epoch": 0.03266666666666666, |
|
"grad_norm": 1.6344914436340332, |
|
"learning_rate": 1.6333333333333335e-05, |
|
"loss": 0.3991, |
|
"step": 98 |
|
}, |
|
{ |
|
"epoch": 0.033, |
|
"grad_norm": 1.7303506135940552, |
|
"learning_rate": 1.65e-05, |
|
"loss": 0.4274, |
|
"step": 99 |
|
}, |
|
{ |
|
"epoch": 0.03333333333333333, |
|
"grad_norm": 1.5459728240966797, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.3306, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.033666666666666664, |
|
"grad_norm": 1.6818580627441406, |
|
"learning_rate": 1.6833333333333334e-05, |
|
"loss": 0.3574, |
|
"step": 101 |
|
}, |
|
{ |
|
"epoch": 0.034, |
|
"grad_norm": 1.5971468687057495, |
|
"learning_rate": 1.7000000000000003e-05, |
|
"loss": 0.3785, |
|
"step": 102 |
|
}, |
|
{ |
|
"epoch": 0.034333333333333334, |
|
"grad_norm": 1.766853928565979, |
|
"learning_rate": 1.7166666666666666e-05, |
|
"loss": 0.353, |
|
"step": 103 |
|
}, |
|
{ |
|
"epoch": 0.034666666666666665, |
|
"grad_norm": 1.368243932723999, |
|
"learning_rate": 1.7333333333333336e-05, |
|
"loss": 0.3294, |
|
"step": 104 |
|
}, |
|
{ |
|
"epoch": 0.035, |
|
"grad_norm": 1.3657722473144531, |
|
"learning_rate": 1.75e-05, |
|
"loss": 0.2953, |
|
"step": 105 |
|
}, |
|
{ |
|
"epoch": 0.035333333333333335, |
|
"grad_norm": 1.5740365982055664, |
|
"learning_rate": 1.7666666666666668e-05, |
|
"loss": 0.3543, |
|
"step": 106 |
|
}, |
|
{ |
|
"epoch": 0.035666666666666666, |
|
"grad_norm": 1.4357829093933105, |
|
"learning_rate": 1.7833333333333334e-05, |
|
"loss": 0.3239, |
|
"step": 107 |
|
}, |
|
{ |
|
"epoch": 0.036, |
|
"grad_norm": 1.8812717199325562, |
|
"learning_rate": 1.8e-05, |
|
"loss": 0.4263, |
|
"step": 108 |
|
}, |
|
{ |
|
"epoch": 0.036333333333333336, |
|
"grad_norm": 1.4755126237869263, |
|
"learning_rate": 1.8166666666666667e-05, |
|
"loss": 0.3344, |
|
"step": 109 |
|
}, |
|
{ |
|
"epoch": 0.03666666666666667, |
|
"grad_norm": 1.595537543296814, |
|
"learning_rate": 1.8333333333333333e-05, |
|
"loss": 0.3897, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.037, |
|
"grad_norm": 1.5346170663833618, |
|
"learning_rate": 1.85e-05, |
|
"loss": 0.3256, |
|
"step": 111 |
|
}, |
|
{ |
|
"epoch": 0.037333333333333336, |
|
"grad_norm": 1.4340442419052124, |
|
"learning_rate": 1.866666666666667e-05, |
|
"loss": 0.3085, |
|
"step": 112 |
|
}, |
|
{ |
|
"epoch": 0.03766666666666667, |
|
"grad_norm": 1.5140653848648071, |
|
"learning_rate": 1.8833333333333335e-05, |
|
"loss": 0.331, |
|
"step": 113 |
|
}, |
|
{ |
|
"epoch": 0.038, |
|
"grad_norm": 1.4573544263839722, |
|
"learning_rate": 1.9e-05, |
|
"loss": 0.3259, |
|
"step": 114 |
|
}, |
|
{ |
|
"epoch": 0.03833333333333333, |
|
"grad_norm": 1.2812256813049316, |
|
"learning_rate": 1.9166666666666667e-05, |
|
"loss": 0.3135, |
|
"step": 115 |
|
}, |
|
{ |
|
"epoch": 0.03866666666666667, |
|
"grad_norm": 1.53571617603302, |
|
"learning_rate": 1.9333333333333333e-05, |
|
"loss": 0.3623, |
|
"step": 116 |
|
}, |
|
{ |
|
"epoch": 0.039, |
|
"grad_norm": 1.4054882526397705, |
|
"learning_rate": 1.9500000000000003e-05, |
|
"loss": 0.3083, |
|
"step": 117 |
|
}, |
|
{ |
|
"epoch": 0.03933333333333333, |
|
"grad_norm": 1.5709601640701294, |
|
"learning_rate": 1.9666666666666666e-05, |
|
"loss": 0.3591, |
|
"step": 118 |
|
}, |
|
{ |
|
"epoch": 0.03966666666666667, |
|
"grad_norm": 1.4430993795394897, |
|
"learning_rate": 1.9833333333333335e-05, |
|
"loss": 0.3235, |
|
"step": 119 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"grad_norm": 1.2675756216049194, |
|
"learning_rate": 2e-05, |
|
"loss": 0.3231, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.04033333333333333, |
|
"grad_norm": 1.6907734870910645, |
|
"learning_rate": 2.0166666666666668e-05, |
|
"loss": 0.3788, |
|
"step": 121 |
|
}, |
|
{ |
|
"epoch": 0.04066666666666666, |
|
"grad_norm": 1.5159516334533691, |
|
"learning_rate": 2.0333333333333334e-05, |
|
"loss": 0.3519, |
|
"step": 122 |
|
}, |
|
{ |
|
"epoch": 0.041, |
|
"grad_norm": 1.7196882963180542, |
|
"learning_rate": 2.05e-05, |
|
"loss": 0.3817, |
|
"step": 123 |
|
}, |
|
{ |
|
"epoch": 0.04133333333333333, |
|
"grad_norm": 1.728525996208191, |
|
"learning_rate": 2.0666666666666666e-05, |
|
"loss": 0.3381, |
|
"step": 124 |
|
}, |
|
{ |
|
"epoch": 0.041666666666666664, |
|
"grad_norm": 1.74927818775177, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 0.4133, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 0.042, |
|
"grad_norm": 2.214763641357422, |
|
"learning_rate": 2.1e-05, |
|
"loss": 0.475, |
|
"step": 126 |
|
}, |
|
{ |
|
"epoch": 0.042333333333333334, |
|
"grad_norm": 1.4449557065963745, |
|
"learning_rate": 2.116666666666667e-05, |
|
"loss": 0.3355, |
|
"step": 127 |
|
}, |
|
{ |
|
"epoch": 0.042666666666666665, |
|
"grad_norm": 1.3350657224655151, |
|
"learning_rate": 2.1333333333333335e-05, |
|
"loss": 0.2971, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 0.043, |
|
"grad_norm": 1.3243197202682495, |
|
"learning_rate": 2.15e-05, |
|
"loss": 0.2936, |
|
"step": 129 |
|
}, |
|
{ |
|
"epoch": 0.043333333333333335, |
|
"grad_norm": 1.6345150470733643, |
|
"learning_rate": 2.1666666666666667e-05, |
|
"loss": 0.3521, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.043666666666666666, |
|
"grad_norm": 2.0870022773742676, |
|
"learning_rate": 2.1833333333333333e-05, |
|
"loss": 0.4417, |
|
"step": 131 |
|
}, |
|
{ |
|
"epoch": 0.044, |
|
"grad_norm": 1.5308624505996704, |
|
"learning_rate": 2.2000000000000003e-05, |
|
"loss": 0.3224, |
|
"step": 132 |
|
}, |
|
{ |
|
"epoch": 0.044333333333333336, |
|
"grad_norm": 1.4620624780654907, |
|
"learning_rate": 2.216666666666667e-05, |
|
"loss": 0.3224, |
|
"step": 133 |
|
}, |
|
{ |
|
"epoch": 0.04466666666666667, |
|
"grad_norm": 1.4036201238632202, |
|
"learning_rate": 2.2333333333333335e-05, |
|
"loss": 0.3004, |
|
"step": 134 |
|
}, |
|
{ |
|
"epoch": 0.045, |
|
"grad_norm": 1.735681176185608, |
|
"learning_rate": 2.25e-05, |
|
"loss": 0.3303, |
|
"step": 135 |
|
}, |
|
{ |
|
"epoch": 0.04533333333333334, |
|
"grad_norm": 1.4971989393234253, |
|
"learning_rate": 2.2666666666666668e-05, |
|
"loss": 0.3153, |
|
"step": 136 |
|
}, |
|
{ |
|
"epoch": 0.04566666666666667, |
|
"grad_norm": 3.4707398414611816, |
|
"learning_rate": 2.2833333333333334e-05, |
|
"loss": 0.4312, |
|
"step": 137 |
|
}, |
|
{ |
|
"epoch": 0.046, |
|
"grad_norm": 1.7263460159301758, |
|
"learning_rate": 2.3000000000000003e-05, |
|
"loss": 0.3923, |
|
"step": 138 |
|
}, |
|
{ |
|
"epoch": 0.04633333333333333, |
|
"grad_norm": 1.3158482313156128, |
|
"learning_rate": 2.3166666666666666e-05, |
|
"loss": 0.3108, |
|
"step": 139 |
|
}, |
|
{ |
|
"epoch": 0.04666666666666667, |
|
"grad_norm": 1.5561543703079224, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 0.3619, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.047, |
|
"grad_norm": 1.5590838193893433, |
|
"learning_rate": 2.35e-05, |
|
"loss": 0.3413, |
|
"step": 141 |
|
}, |
|
{ |
|
"epoch": 0.04733333333333333, |
|
"grad_norm": 1.9386111497879028, |
|
"learning_rate": 2.3666666666666668e-05, |
|
"loss": 0.4538, |
|
"step": 142 |
|
}, |
|
{ |
|
"epoch": 0.04766666666666667, |
|
"grad_norm": 1.4611613750457764, |
|
"learning_rate": 2.3833333333333334e-05, |
|
"loss": 0.3328, |
|
"step": 143 |
|
}, |
|
{ |
|
"epoch": 0.048, |
|
"grad_norm": 1.4083524942398071, |
|
"learning_rate": 2.4e-05, |
|
"loss": 0.3683, |
|
"step": 144 |
|
}, |
|
{ |
|
"epoch": 0.04833333333333333, |
|
"grad_norm": 4.442422866821289, |
|
"learning_rate": 2.4166666666666667e-05, |
|
"loss": 0.342, |
|
"step": 145 |
|
}, |
|
{ |
|
"epoch": 0.048666666666666664, |
|
"grad_norm": 1.897199273109436, |
|
"learning_rate": 2.4333333333333336e-05, |
|
"loss": 0.3359, |
|
"step": 146 |
|
}, |
|
{ |
|
"epoch": 0.049, |
|
"grad_norm": 1.455759882926941, |
|
"learning_rate": 2.45e-05, |
|
"loss": 0.3557, |
|
"step": 147 |
|
}, |
|
{ |
|
"epoch": 0.04933333333333333, |
|
"grad_norm": 1.732920527458191, |
|
"learning_rate": 2.466666666666667e-05, |
|
"loss": 0.3624, |
|
"step": 148 |
|
}, |
|
{ |
|
"epoch": 0.049666666666666665, |
|
"grad_norm": 1.6186577081680298, |
|
"learning_rate": 2.4833333333333335e-05, |
|
"loss": 0.4221, |
|
"step": 149 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"grad_norm": 2.151060104370117, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.4304, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.050333333333333334, |
|
"grad_norm": 1.517791748046875, |
|
"learning_rate": 2.5166666666666667e-05, |
|
"loss": 0.3217, |
|
"step": 151 |
|
}, |
|
{ |
|
"epoch": 0.050666666666666665, |
|
"grad_norm": 1.5455111265182495, |
|
"learning_rate": 2.5333333333333337e-05, |
|
"loss": 0.3484, |
|
"step": 152 |
|
}, |
|
{ |
|
"epoch": 0.051, |
|
"grad_norm": 1.3353674411773682, |
|
"learning_rate": 2.5500000000000003e-05, |
|
"loss": 0.286, |
|
"step": 153 |
|
}, |
|
{ |
|
"epoch": 0.051333333333333335, |
|
"grad_norm": 1.4271986484527588, |
|
"learning_rate": 2.5666666666666666e-05, |
|
"loss": 0.353, |
|
"step": 154 |
|
}, |
|
{ |
|
"epoch": 0.051666666666666666, |
|
"grad_norm": 1.733125925064087, |
|
"learning_rate": 2.5833333333333336e-05, |
|
"loss": 0.3943, |
|
"step": 155 |
|
}, |
|
{ |
|
"epoch": 0.052, |
|
"grad_norm": 6.120161533355713, |
|
"learning_rate": 2.6000000000000002e-05, |
|
"loss": 0.3833, |
|
"step": 156 |
|
}, |
|
{ |
|
"epoch": 0.052333333333333336, |
|
"grad_norm": 1.6967121362686157, |
|
"learning_rate": 2.6166666666666668e-05, |
|
"loss": 0.3778, |
|
"step": 157 |
|
}, |
|
{ |
|
"epoch": 0.05266666666666667, |
|
"grad_norm": 1.9036916494369507, |
|
"learning_rate": 2.633333333333333e-05, |
|
"loss": 0.2843, |
|
"step": 158 |
|
}, |
|
{ |
|
"epoch": 0.053, |
|
"grad_norm": 1.7140095233917236, |
|
"learning_rate": 2.6500000000000004e-05, |
|
"loss": 0.3918, |
|
"step": 159 |
|
}, |
|
{ |
|
"epoch": 0.05333333333333334, |
|
"grad_norm": 1.3422181606292725, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 0.3402, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.05366666666666667, |
|
"grad_norm": 1.3878352642059326, |
|
"learning_rate": 2.6833333333333333e-05, |
|
"loss": 0.3169, |
|
"step": 161 |
|
}, |
|
{ |
|
"epoch": 0.054, |
|
"grad_norm": 1.446089744567871, |
|
"learning_rate": 2.7000000000000002e-05, |
|
"loss": 0.3438, |
|
"step": 162 |
|
}, |
|
{ |
|
"epoch": 0.05433333333333333, |
|
"grad_norm": 1.2851896286010742, |
|
"learning_rate": 2.716666666666667e-05, |
|
"loss": 0.2795, |
|
"step": 163 |
|
}, |
|
{ |
|
"epoch": 0.05466666666666667, |
|
"grad_norm": 1.4944298267364502, |
|
"learning_rate": 2.733333333333333e-05, |
|
"loss": 0.3463, |
|
"step": 164 |
|
}, |
|
{ |
|
"epoch": 0.055, |
|
"grad_norm": 1.5940018892288208, |
|
"learning_rate": 2.7500000000000004e-05, |
|
"loss": 0.3653, |
|
"step": 165 |
|
}, |
|
{ |
|
"epoch": 0.05533333333333333, |
|
"grad_norm": 1.2155016660690308, |
|
"learning_rate": 2.7666666666666667e-05, |
|
"loss": 0.3007, |
|
"step": 166 |
|
}, |
|
{ |
|
"epoch": 0.05566666666666667, |
|
"grad_norm": 1.7410703897476196, |
|
"learning_rate": 2.7833333333333333e-05, |
|
"loss": 0.3656, |
|
"step": 167 |
|
}, |
|
{ |
|
"epoch": 0.056, |
|
"grad_norm": 1.5186805725097656, |
|
"learning_rate": 2.8000000000000003e-05, |
|
"loss": 0.3309, |
|
"step": 168 |
|
}, |
|
{ |
|
"epoch": 0.05633333333333333, |
|
"grad_norm": 1.3507519960403442, |
|
"learning_rate": 2.816666666666667e-05, |
|
"loss": 0.3209, |
|
"step": 169 |
|
}, |
|
{ |
|
"epoch": 0.056666666666666664, |
|
"grad_norm": 1.378380298614502, |
|
"learning_rate": 2.8333333333333335e-05, |
|
"loss": 0.3257, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.057, |
|
"grad_norm": 1.413633108139038, |
|
"learning_rate": 2.8499999999999998e-05, |
|
"loss": 0.3067, |
|
"step": 171 |
|
}, |
|
{ |
|
"epoch": 0.05733333333333333, |
|
"grad_norm": 1.3859586715698242, |
|
"learning_rate": 2.8666666666666668e-05, |
|
"loss": 0.3464, |
|
"step": 172 |
|
}, |
|
{ |
|
"epoch": 0.057666666666666665, |
|
"grad_norm": 1.281520128250122, |
|
"learning_rate": 2.8833333333333334e-05, |
|
"loss": 0.3538, |
|
"step": 173 |
|
}, |
|
{ |
|
"epoch": 0.058, |
|
"grad_norm": 1.6939369440078735, |
|
"learning_rate": 2.9e-05, |
|
"loss": 0.4368, |
|
"step": 174 |
|
}, |
|
{ |
|
"epoch": 0.058333333333333334, |
|
"grad_norm": 1.7700634002685547, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 0.33, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 0.058666666666666666, |
|
"grad_norm": 1.4249154329299927, |
|
"learning_rate": 2.9333333333333336e-05, |
|
"loss": 0.3226, |
|
"step": 176 |
|
}, |
|
{ |
|
"epoch": 0.059, |
|
"grad_norm": 1.3474069833755493, |
|
"learning_rate": 2.95e-05, |
|
"loss": 0.2756, |
|
"step": 177 |
|
}, |
|
{ |
|
"epoch": 0.059333333333333335, |
|
"grad_norm": 1.2740994691848755, |
|
"learning_rate": 2.9666666666666672e-05, |
|
"loss": 0.266, |
|
"step": 178 |
|
}, |
|
{ |
|
"epoch": 0.059666666666666666, |
|
"grad_norm": 1.8142409324645996, |
|
"learning_rate": 2.9833333333333335e-05, |
|
"loss": 0.3101, |
|
"step": 179 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"grad_norm": 1.4520740509033203, |
|
"learning_rate": 3e-05, |
|
"loss": 0.3521, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.060333333333333336, |
|
"grad_norm": 1.609920859336853, |
|
"learning_rate": 3.016666666666667e-05, |
|
"loss": 0.3578, |
|
"step": 181 |
|
}, |
|
{ |
|
"epoch": 0.06066666666666667, |
|
"grad_norm": 1.3788601160049438, |
|
"learning_rate": 3.0333333333333337e-05, |
|
"loss": 0.3204, |
|
"step": 182 |
|
}, |
|
{ |
|
"epoch": 0.061, |
|
"grad_norm": 1.3609263896942139, |
|
"learning_rate": 3.05e-05, |
|
"loss": 0.3246, |
|
"step": 183 |
|
}, |
|
{ |
|
"epoch": 0.06133333333333333, |
|
"grad_norm": 1.382299780845642, |
|
"learning_rate": 3.066666666666667e-05, |
|
"loss": 0.3385, |
|
"step": 184 |
|
}, |
|
{ |
|
"epoch": 0.06166666666666667, |
|
"grad_norm": 1.9848756790161133, |
|
"learning_rate": 3.0833333333333335e-05, |
|
"loss": 0.3731, |
|
"step": 185 |
|
}, |
|
{ |
|
"epoch": 0.062, |
|
"grad_norm": 1.4903755187988281, |
|
"learning_rate": 3.1e-05, |
|
"loss": 0.3489, |
|
"step": 186 |
|
}, |
|
{ |
|
"epoch": 0.06233333333333333, |
|
"grad_norm": 1.3801896572113037, |
|
"learning_rate": 3.116666666666667e-05, |
|
"loss": 0.3621, |
|
"step": 187 |
|
}, |
|
{ |
|
"epoch": 0.06266666666666666, |
|
"grad_norm": 1.6879767179489136, |
|
"learning_rate": 3.1333333333333334e-05, |
|
"loss": 0.451, |
|
"step": 188 |
|
}, |
|
{ |
|
"epoch": 0.063, |
|
"grad_norm": 1.4495042562484741, |
|
"learning_rate": 3.15e-05, |
|
"loss": 0.2778, |
|
"step": 189 |
|
}, |
|
{ |
|
"epoch": 0.06333333333333334, |
|
"grad_norm": 1.290792465209961, |
|
"learning_rate": 3.1666666666666666e-05, |
|
"loss": 0.2716, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.06366666666666666, |
|
"grad_norm": 1.9189130067825317, |
|
"learning_rate": 3.183333333333334e-05, |
|
"loss": 0.4117, |
|
"step": 191 |
|
}, |
|
{ |
|
"epoch": 0.064, |
|
"grad_norm": 1.5139693021774292, |
|
"learning_rate": 3.2000000000000005e-05, |
|
"loss": 0.3266, |
|
"step": 192 |
|
}, |
|
{ |
|
"epoch": 0.06433333333333334, |
|
"grad_norm": 1.7017555236816406, |
|
"learning_rate": 3.2166666666666665e-05, |
|
"loss": 0.3157, |
|
"step": 193 |
|
}, |
|
{ |
|
"epoch": 0.06466666666666666, |
|
"grad_norm": 1.440495252609253, |
|
"learning_rate": 3.233333333333333e-05, |
|
"loss": 0.3303, |
|
"step": 194 |
|
}, |
|
{ |
|
"epoch": 0.065, |
|
"grad_norm": 1.4504367113113403, |
|
"learning_rate": 3.2500000000000004e-05, |
|
"loss": 0.2769, |
|
"step": 195 |
|
}, |
|
{ |
|
"epoch": 0.06533333333333333, |
|
"grad_norm": 1.375322937965393, |
|
"learning_rate": 3.266666666666667e-05, |
|
"loss": 0.3783, |
|
"step": 196 |
|
}, |
|
{ |
|
"epoch": 0.06566666666666666, |
|
"grad_norm": 1.6191874742507935, |
|
"learning_rate": 3.283333333333333e-05, |
|
"loss": 0.3312, |
|
"step": 197 |
|
}, |
|
{ |
|
"epoch": 0.066, |
|
"grad_norm": 1.266046166419983, |
|
"learning_rate": 3.3e-05, |
|
"loss": 0.3533, |
|
"step": 198 |
|
}, |
|
{ |
|
"epoch": 0.06633333333333333, |
|
"grad_norm": 2.0328266620635986, |
|
"learning_rate": 3.316666666666667e-05, |
|
"loss": 0.4017, |
|
"step": 199 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 1.5838234424591064, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.4061, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.067, |
|
"grad_norm": 1.679366946220398, |
|
"learning_rate": 3.35e-05, |
|
"loss": 0.4266, |
|
"step": 201 |
|
}, |
|
{ |
|
"epoch": 0.06733333333333333, |
|
"grad_norm": 1.5685397386550903, |
|
"learning_rate": 3.366666666666667e-05, |
|
"loss": 0.4183, |
|
"step": 202 |
|
}, |
|
{ |
|
"epoch": 0.06766666666666667, |
|
"grad_norm": 1.776902198791504, |
|
"learning_rate": 3.3833333333333334e-05, |
|
"loss": 0.3168, |
|
"step": 203 |
|
}, |
|
{ |
|
"epoch": 0.068, |
|
"grad_norm": 1.7474539279937744, |
|
"learning_rate": 3.4000000000000007e-05, |
|
"loss": 0.3145, |
|
"step": 204 |
|
}, |
|
{ |
|
"epoch": 0.06833333333333333, |
|
"grad_norm": 1.4013917446136475, |
|
"learning_rate": 3.4166666666666666e-05, |
|
"loss": 0.3322, |
|
"step": 205 |
|
}, |
|
{ |
|
"epoch": 0.06866666666666667, |
|
"grad_norm": 1.459243655204773, |
|
"learning_rate": 3.433333333333333e-05, |
|
"loss": 0.3273, |
|
"step": 206 |
|
}, |
|
{ |
|
"epoch": 0.069, |
|
"grad_norm": 1.4038946628570557, |
|
"learning_rate": 3.45e-05, |
|
"loss": 0.3238, |
|
"step": 207 |
|
}, |
|
{ |
|
"epoch": 0.06933333333333333, |
|
"grad_norm": 1.5630148649215698, |
|
"learning_rate": 3.466666666666667e-05, |
|
"loss": 0.3368, |
|
"step": 208 |
|
}, |
|
{ |
|
"epoch": 0.06966666666666667, |
|
"grad_norm": 1.4870696067810059, |
|
"learning_rate": 3.483333333333334e-05, |
|
"loss": 0.377, |
|
"step": 209 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"grad_norm": 1.5031110048294067, |
|
"learning_rate": 3.5e-05, |
|
"loss": 0.3609, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.07033333333333333, |
|
"grad_norm": 1.6764661073684692, |
|
"learning_rate": 3.516666666666667e-05, |
|
"loss": 0.3562, |
|
"step": 211 |
|
}, |
|
{ |
|
"epoch": 0.07066666666666667, |
|
"grad_norm": 1.6077598333358765, |
|
"learning_rate": 3.5333333333333336e-05, |
|
"loss": 0.3924, |
|
"step": 212 |
|
}, |
|
{ |
|
"epoch": 0.071, |
|
"grad_norm": 1.7674628496170044, |
|
"learning_rate": 3.55e-05, |
|
"loss": 0.3631, |
|
"step": 213 |
|
}, |
|
{ |
|
"epoch": 0.07133333333333333, |
|
"grad_norm": 1.62470543384552, |
|
"learning_rate": 3.566666666666667e-05, |
|
"loss": 0.3619, |
|
"step": 214 |
|
}, |
|
{ |
|
"epoch": 0.07166666666666667, |
|
"grad_norm": 1.4642609357833862, |
|
"learning_rate": 3.5833333333333335e-05, |
|
"loss": 0.3153, |
|
"step": 215 |
|
}, |
|
{ |
|
"epoch": 0.072, |
|
"grad_norm": 1.5644686222076416, |
|
"learning_rate": 3.6e-05, |
|
"loss": 0.3619, |
|
"step": 216 |
|
}, |
|
{ |
|
"epoch": 0.07233333333333333, |
|
"grad_norm": 1.49044668674469, |
|
"learning_rate": 3.6166666666666674e-05, |
|
"loss": 0.3836, |
|
"step": 217 |
|
}, |
|
{ |
|
"epoch": 0.07266666666666667, |
|
"grad_norm": 1.7291405200958252, |
|
"learning_rate": 3.633333333333333e-05, |
|
"loss": 0.4209, |
|
"step": 218 |
|
}, |
|
{ |
|
"epoch": 0.073, |
|
"grad_norm": 1.5071781873703003, |
|
"learning_rate": 3.65e-05, |
|
"loss": 0.3236, |
|
"step": 219 |
|
}, |
|
{ |
|
"epoch": 0.07333333333333333, |
|
"grad_norm": 2.787971258163452, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 0.4086, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.07366666666666667, |
|
"grad_norm": 1.4977898597717285, |
|
"learning_rate": 3.683333333333334e-05, |
|
"loss": 0.3655, |
|
"step": 221 |
|
}, |
|
{ |
|
"epoch": 0.074, |
|
"grad_norm": 1.4775617122650146, |
|
"learning_rate": 3.7e-05, |
|
"loss": 0.3571, |
|
"step": 222 |
|
}, |
|
{ |
|
"epoch": 0.07433333333333333, |
|
"grad_norm": 1.4579126834869385, |
|
"learning_rate": 3.7166666666666664e-05, |
|
"loss": 0.3274, |
|
"step": 223 |
|
}, |
|
{ |
|
"epoch": 0.07466666666666667, |
|
"grad_norm": 1.5384258031845093, |
|
"learning_rate": 3.733333333333334e-05, |
|
"loss": 0.3591, |
|
"step": 224 |
|
}, |
|
{ |
|
"epoch": 0.075, |
|
"grad_norm": 1.308038353919983, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 0.279, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 0.07533333333333334, |
|
"grad_norm": 1.5637880563735962, |
|
"learning_rate": 3.766666666666667e-05, |
|
"loss": 0.2898, |
|
"step": 226 |
|
}, |
|
{ |
|
"epoch": 0.07566666666666666, |
|
"grad_norm": 1.479993462562561, |
|
"learning_rate": 3.7833333333333336e-05, |
|
"loss": 0.3416, |
|
"step": 227 |
|
}, |
|
{ |
|
"epoch": 0.076, |
|
"grad_norm": 1.6080683469772339, |
|
"learning_rate": 3.8e-05, |
|
"loss": 0.3692, |
|
"step": 228 |
|
}, |
|
{ |
|
"epoch": 0.07633333333333334, |
|
"grad_norm": 3.331662178039551, |
|
"learning_rate": 3.816666666666667e-05, |
|
"loss": 0.3672, |
|
"step": 229 |
|
}, |
|
{ |
|
"epoch": 0.07666666666666666, |
|
"grad_norm": 2.0933995246887207, |
|
"learning_rate": 3.8333333333333334e-05, |
|
"loss": 0.3193, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.077, |
|
"grad_norm": 1.4656376838684082, |
|
"learning_rate": 3.85e-05, |
|
"loss": 0.335, |
|
"step": 231 |
|
}, |
|
{ |
|
"epoch": 0.07733333333333334, |
|
"grad_norm": 1.580031394958496, |
|
"learning_rate": 3.866666666666667e-05, |
|
"loss": 0.4765, |
|
"step": 232 |
|
}, |
|
{ |
|
"epoch": 0.07766666666666666, |
|
"grad_norm": 1.611729383468628, |
|
"learning_rate": 3.883333333333333e-05, |
|
"loss": 0.318, |
|
"step": 233 |
|
}, |
|
{ |
|
"epoch": 0.078, |
|
"grad_norm": 1.457902193069458, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 0.3561, |
|
"step": 234 |
|
}, |
|
{ |
|
"epoch": 0.07833333333333334, |
|
"grad_norm": 1.4646954536437988, |
|
"learning_rate": 3.9166666666666665e-05, |
|
"loss": 0.3688, |
|
"step": 235 |
|
}, |
|
{ |
|
"epoch": 0.07866666666666666, |
|
"grad_norm": 1.5438694953918457, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 0.3741, |
|
"step": 236 |
|
}, |
|
{ |
|
"epoch": 0.079, |
|
"grad_norm": 1.6718634366989136, |
|
"learning_rate": 3.9500000000000005e-05, |
|
"loss": 0.3651, |
|
"step": 237 |
|
}, |
|
{ |
|
"epoch": 0.07933333333333334, |
|
"grad_norm": 1.49998939037323, |
|
"learning_rate": 3.966666666666667e-05, |
|
"loss": 0.3971, |
|
"step": 238 |
|
}, |
|
{ |
|
"epoch": 0.07966666666666666, |
|
"grad_norm": 1.4909234046936035, |
|
"learning_rate": 3.983333333333333e-05, |
|
"loss": 0.3436, |
|
"step": 239 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"grad_norm": 1.335534691810608, |
|
"learning_rate": 4e-05, |
|
"loss": 0.2857, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.08033333333333334, |
|
"grad_norm": 1.4363330602645874, |
|
"learning_rate": 4.016666666666667e-05, |
|
"loss": 0.2972, |
|
"step": 241 |
|
}, |
|
{ |
|
"epoch": 0.08066666666666666, |
|
"grad_norm": 1.5053205490112305, |
|
"learning_rate": 4.0333333333333336e-05, |
|
"loss": 0.3726, |
|
"step": 242 |
|
}, |
|
{ |
|
"epoch": 0.081, |
|
"grad_norm": 1.5662518739700317, |
|
"learning_rate": 4.05e-05, |
|
"loss": 0.3822, |
|
"step": 243 |
|
}, |
|
{ |
|
"epoch": 0.08133333333333333, |
|
"grad_norm": 1.5105401277542114, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 0.3845, |
|
"step": 244 |
|
}, |
|
{ |
|
"epoch": 0.08166666666666667, |
|
"grad_norm": 1.2965208292007446, |
|
"learning_rate": 4.0833333333333334e-05, |
|
"loss": 0.2714, |
|
"step": 245 |
|
}, |
|
{ |
|
"epoch": 0.082, |
|
"grad_norm": 1.3468542098999023, |
|
"learning_rate": 4.1e-05, |
|
"loss": 0.3419, |
|
"step": 246 |
|
}, |
|
{ |
|
"epoch": 0.08233333333333333, |
|
"grad_norm": 1.578986644744873, |
|
"learning_rate": 4.116666666666667e-05, |
|
"loss": 0.4288, |
|
"step": 247 |
|
}, |
|
{ |
|
"epoch": 0.08266666666666667, |
|
"grad_norm": 1.452244520187378, |
|
"learning_rate": 4.133333333333333e-05, |
|
"loss": 0.3575, |
|
"step": 248 |
|
}, |
|
{ |
|
"epoch": 0.083, |
|
"grad_norm": 1.5739537477493286, |
|
"learning_rate": 4.15e-05, |
|
"loss": 0.3433, |
|
"step": 249 |
|
}, |
|
{ |
|
"epoch": 0.08333333333333333, |
|
"grad_norm": 1.482478141784668, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.3903, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.08366666666666667, |
|
"grad_norm": 1.4102691411972046, |
|
"learning_rate": 4.183333333333334e-05, |
|
"loss": 0.324, |
|
"step": 251 |
|
}, |
|
{ |
|
"epoch": 0.084, |
|
"grad_norm": 1.3748400211334229, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.3348, |
|
"step": 252 |
|
}, |
|
{ |
|
"epoch": 0.08433333333333333, |
|
"grad_norm": 1.3118107318878174, |
|
"learning_rate": 4.216666666666667e-05, |
|
"loss": 0.2931, |
|
"step": 253 |
|
}, |
|
{ |
|
"epoch": 0.08466666666666667, |
|
"grad_norm": 1.5641124248504639, |
|
"learning_rate": 4.233333333333334e-05, |
|
"loss": 0.4123, |
|
"step": 254 |
|
}, |
|
{ |
|
"epoch": 0.085, |
|
"grad_norm": 1.3105560541152954, |
|
"learning_rate": 4.25e-05, |
|
"loss": 0.3441, |
|
"step": 255 |
|
}, |
|
{ |
|
"epoch": 0.08533333333333333, |
|
"grad_norm": 1.5378347635269165, |
|
"learning_rate": 4.266666666666667e-05, |
|
"loss": 0.3702, |
|
"step": 256 |
|
}, |
|
{ |
|
"epoch": 0.08566666666666667, |
|
"grad_norm": 1.5331541299819946, |
|
"learning_rate": 4.2833333333333335e-05, |
|
"loss": 0.4366, |
|
"step": 257 |
|
}, |
|
{ |
|
"epoch": 0.086, |
|
"grad_norm": 1.18148672580719, |
|
"learning_rate": 4.3e-05, |
|
"loss": 0.2741, |
|
"step": 258 |
|
}, |
|
{ |
|
"epoch": 0.08633333333333333, |
|
"grad_norm": 1.4464715719223022, |
|
"learning_rate": 4.316666666666667e-05, |
|
"loss": 0.334, |
|
"step": 259 |
|
}, |
|
{ |
|
"epoch": 0.08666666666666667, |
|
"grad_norm": 1.552941918373108, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 0.3906, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.087, |
|
"grad_norm": 1.51602041721344, |
|
"learning_rate": 4.35e-05, |
|
"loss": 0.3549, |
|
"step": 261 |
|
}, |
|
{ |
|
"epoch": 0.08733333333333333, |
|
"grad_norm": 1.4399656057357788, |
|
"learning_rate": 4.3666666666666666e-05, |
|
"loss": 0.3437, |
|
"step": 262 |
|
}, |
|
{ |
|
"epoch": 0.08766666666666667, |
|
"grad_norm": 1.3392916917800903, |
|
"learning_rate": 4.383333333333334e-05, |
|
"loss": 0.2961, |
|
"step": 263 |
|
}, |
|
{ |
|
"epoch": 0.088, |
|
"grad_norm": 1.626286506652832, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 0.3532, |
|
"step": 264 |
|
}, |
|
{ |
|
"epoch": 0.08833333333333333, |
|
"grad_norm": 1.6674925088882446, |
|
"learning_rate": 4.4166666666666665e-05, |
|
"loss": 0.4064, |
|
"step": 265 |
|
}, |
|
{ |
|
"epoch": 0.08866666666666667, |
|
"grad_norm": 1.3257759809494019, |
|
"learning_rate": 4.433333333333334e-05, |
|
"loss": 0.2652, |
|
"step": 266 |
|
}, |
|
{ |
|
"epoch": 0.089, |
|
"grad_norm": 1.5646772384643555, |
|
"learning_rate": 4.4500000000000004e-05, |
|
"loss": 0.3433, |
|
"step": 267 |
|
}, |
|
{ |
|
"epoch": 0.08933333333333333, |
|
"grad_norm": 1.5401488542556763, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 0.4299, |
|
"step": 268 |
|
}, |
|
{ |
|
"epoch": 0.08966666666666667, |
|
"grad_norm": 1.3046114444732666, |
|
"learning_rate": 4.483333333333333e-05, |
|
"loss": 0.3763, |
|
"step": 269 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"grad_norm": 1.4883687496185303, |
|
"learning_rate": 4.5e-05, |
|
"loss": 0.4005, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.09033333333333333, |
|
"grad_norm": 1.20869779586792, |
|
"learning_rate": 4.516666666666667e-05, |
|
"loss": 0.3037, |
|
"step": 271 |
|
}, |
|
{ |
|
"epoch": 0.09066666666666667, |
|
"grad_norm": 1.4379864931106567, |
|
"learning_rate": 4.5333333333333335e-05, |
|
"loss": 0.3505, |
|
"step": 272 |
|
}, |
|
{ |
|
"epoch": 0.091, |
|
"grad_norm": 1.5501856803894043, |
|
"learning_rate": 4.55e-05, |
|
"loss": 0.3676, |
|
"step": 273 |
|
}, |
|
{ |
|
"epoch": 0.09133333333333334, |
|
"grad_norm": 1.6164238452911377, |
|
"learning_rate": 4.566666666666667e-05, |
|
"loss": 0.3604, |
|
"step": 274 |
|
}, |
|
{ |
|
"epoch": 0.09166666666666666, |
|
"grad_norm": 1.5581339597702026, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 0.415, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 0.092, |
|
"grad_norm": 1.9566978216171265, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 0.2886, |
|
"step": 276 |
|
}, |
|
{ |
|
"epoch": 0.09233333333333334, |
|
"grad_norm": 1.4752821922302246, |
|
"learning_rate": 4.6166666666666666e-05, |
|
"loss": 0.3575, |
|
"step": 277 |
|
}, |
|
{ |
|
"epoch": 0.09266666666666666, |
|
"grad_norm": 1.5628986358642578, |
|
"learning_rate": 4.633333333333333e-05, |
|
"loss": 0.3825, |
|
"step": 278 |
|
}, |
|
{ |
|
"epoch": 0.093, |
|
"grad_norm": 2.187627077102661, |
|
"learning_rate": 4.6500000000000005e-05, |
|
"loss": 0.391, |
|
"step": 279 |
|
}, |
|
{ |
|
"epoch": 0.09333333333333334, |
|
"grad_norm": 1.5310142040252686, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 0.3838, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.09366666666666666, |
|
"grad_norm": 1.543420433998108, |
|
"learning_rate": 4.683333333333334e-05, |
|
"loss": 0.3011, |
|
"step": 281 |
|
}, |
|
{ |
|
"epoch": 0.094, |
|
"grad_norm": 1.5134119987487793, |
|
"learning_rate": 4.7e-05, |
|
"loss": 0.3686, |
|
"step": 282 |
|
}, |
|
{ |
|
"epoch": 0.09433333333333334, |
|
"grad_norm": 1.967798113822937, |
|
"learning_rate": 4.716666666666667e-05, |
|
"loss": 0.4176, |
|
"step": 283 |
|
}, |
|
{ |
|
"epoch": 0.09466666666666666, |
|
"grad_norm": 2.0906894207000732, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 0.358, |
|
"step": 284 |
|
}, |
|
{ |
|
"epoch": 0.095, |
|
"grad_norm": 1.3834588527679443, |
|
"learning_rate": 4.75e-05, |
|
"loss": 0.389, |
|
"step": 285 |
|
}, |
|
{ |
|
"epoch": 0.09533333333333334, |
|
"grad_norm": 1.6481044292449951, |
|
"learning_rate": 4.766666666666667e-05, |
|
"loss": 0.3488, |
|
"step": 286 |
|
}, |
|
{ |
|
"epoch": 0.09566666666666666, |
|
"grad_norm": 1.325629472732544, |
|
"learning_rate": 4.7833333333333335e-05, |
|
"loss": 0.3003, |
|
"step": 287 |
|
}, |
|
{ |
|
"epoch": 0.096, |
|
"grad_norm": 1.701684832572937, |
|
"learning_rate": 4.8e-05, |
|
"loss": 0.4497, |
|
"step": 288 |
|
}, |
|
{ |
|
"epoch": 0.09633333333333334, |
|
"grad_norm": 1.6686456203460693, |
|
"learning_rate": 4.8166666666666674e-05, |
|
"loss": 0.3482, |
|
"step": 289 |
|
}, |
|
{ |
|
"epoch": 0.09666666666666666, |
|
"grad_norm": 1.8158715963363647, |
|
"learning_rate": 4.8333333333333334e-05, |
|
"loss": 0.3567, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.097, |
|
"grad_norm": 1.6466172933578491, |
|
"learning_rate": 4.85e-05, |
|
"loss": 0.3868, |
|
"step": 291 |
|
}, |
|
{ |
|
"epoch": 0.09733333333333333, |
|
"grad_norm": 1.4000461101531982, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 0.3448, |
|
"step": 292 |
|
}, |
|
{ |
|
"epoch": 0.09766666666666667, |
|
"grad_norm": 1.7131824493408203, |
|
"learning_rate": 4.883333333333334e-05, |
|
"loss": 0.3907, |
|
"step": 293 |
|
}, |
|
{ |
|
"epoch": 0.098, |
|
"grad_norm": 6.926778793334961, |
|
"learning_rate": 4.9e-05, |
|
"loss": 0.3705, |
|
"step": 294 |
|
}, |
|
{ |
|
"epoch": 0.09833333333333333, |
|
"grad_norm": 1.515509009361267, |
|
"learning_rate": 4.9166666666666665e-05, |
|
"loss": 0.3596, |
|
"step": 295 |
|
}, |
|
{ |
|
"epoch": 0.09866666666666667, |
|
"grad_norm": 2.7844343185424805, |
|
"learning_rate": 4.933333333333334e-05, |
|
"loss": 0.3776, |
|
"step": 296 |
|
}, |
|
{ |
|
"epoch": 0.099, |
|
"grad_norm": 1.605407953262329, |
|
"learning_rate": 4.9500000000000004e-05, |
|
"loss": 0.3319, |
|
"step": 297 |
|
}, |
|
{ |
|
"epoch": 0.09933333333333333, |
|
"grad_norm": 1.6420544385910034, |
|
"learning_rate": 4.966666666666667e-05, |
|
"loss": 0.4242, |
|
"step": 298 |
|
}, |
|
{ |
|
"epoch": 0.09966666666666667, |
|
"grad_norm": 1.577746868133545, |
|
"learning_rate": 4.9833333333333336e-05, |
|
"loss": 0.3658, |
|
"step": 299 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"grad_norm": 1.9592171907424927, |
|
"learning_rate": 5e-05, |
|
"loss": 0.3846, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.10033333333333333, |
|
"grad_norm": 1.5824711322784424, |
|
"learning_rate": 4.998148148148148e-05, |
|
"loss": 0.4153, |
|
"step": 301 |
|
}, |
|
{ |
|
"epoch": 0.10066666666666667, |
|
"grad_norm": 1.4897867441177368, |
|
"learning_rate": 4.9962962962962964e-05, |
|
"loss": 0.3189, |
|
"step": 302 |
|
}, |
|
{ |
|
"epoch": 0.101, |
|
"grad_norm": 1.5191915035247803, |
|
"learning_rate": 4.994444444444445e-05, |
|
"loss": 0.3831, |
|
"step": 303 |
|
}, |
|
{ |
|
"epoch": 0.10133333333333333, |
|
"grad_norm": 1.619132399559021, |
|
"learning_rate": 4.9925925925925926e-05, |
|
"loss": 0.3979, |
|
"step": 304 |
|
}, |
|
{ |
|
"epoch": 0.10166666666666667, |
|
"grad_norm": 1.4781115055084229, |
|
"learning_rate": 4.9907407407407406e-05, |
|
"loss": 0.353, |
|
"step": 305 |
|
}, |
|
{ |
|
"epoch": 0.102, |
|
"grad_norm": 1.4926246404647827, |
|
"learning_rate": 4.9888888888888894e-05, |
|
"loss": 0.3419, |
|
"step": 306 |
|
}, |
|
{ |
|
"epoch": 0.10233333333333333, |
|
"grad_norm": 1.7952423095703125, |
|
"learning_rate": 4.9870370370370375e-05, |
|
"loss": 0.5152, |
|
"step": 307 |
|
}, |
|
{ |
|
"epoch": 0.10266666666666667, |
|
"grad_norm": 1.4844441413879395, |
|
"learning_rate": 4.9851851851851855e-05, |
|
"loss": 0.3638, |
|
"step": 308 |
|
}, |
|
{ |
|
"epoch": 0.103, |
|
"grad_norm": 1.7583948373794556, |
|
"learning_rate": 4.9833333333333336e-05, |
|
"loss": 0.412, |
|
"step": 309 |
|
}, |
|
{ |
|
"epoch": 0.10333333333333333, |
|
"grad_norm": 1.615587830543518, |
|
"learning_rate": 4.981481481481482e-05, |
|
"loss": 0.3168, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 0.10366666666666667, |
|
"grad_norm": 1.519759178161621, |
|
"learning_rate": 4.97962962962963e-05, |
|
"loss": 0.3732, |
|
"step": 311 |
|
}, |
|
{ |
|
"epoch": 0.104, |
|
"grad_norm": 1.3965352773666382, |
|
"learning_rate": 4.977777777777778e-05, |
|
"loss": 0.4101, |
|
"step": 312 |
|
}, |
|
{ |
|
"epoch": 0.10433333333333333, |
|
"grad_norm": 1.3635843992233276, |
|
"learning_rate": 4.975925925925926e-05, |
|
"loss": 0.3255, |
|
"step": 313 |
|
}, |
|
{ |
|
"epoch": 0.10466666666666667, |
|
"grad_norm": 1.4801793098449707, |
|
"learning_rate": 4.974074074074074e-05, |
|
"loss": 0.3583, |
|
"step": 314 |
|
}, |
|
{ |
|
"epoch": 0.105, |
|
"grad_norm": 1.591237187385559, |
|
"learning_rate": 4.972222222222223e-05, |
|
"loss": 0.3393, |
|
"step": 315 |
|
}, |
|
{ |
|
"epoch": 0.10533333333333333, |
|
"grad_norm": 1.5205988883972168, |
|
"learning_rate": 4.970370370370371e-05, |
|
"loss": 0.4168, |
|
"step": 316 |
|
}, |
|
{ |
|
"epoch": 0.10566666666666667, |
|
"grad_norm": 1.8333476781845093, |
|
"learning_rate": 4.968518518518519e-05, |
|
"loss": 0.3803, |
|
"step": 317 |
|
}, |
|
{ |
|
"epoch": 0.106, |
|
"grad_norm": 1.692940592765808, |
|
"learning_rate": 4.966666666666667e-05, |
|
"loss": 0.3542, |
|
"step": 318 |
|
}, |
|
{ |
|
"epoch": 0.10633333333333334, |
|
"grad_norm": 1.5380736589431763, |
|
"learning_rate": 4.964814814814815e-05, |
|
"loss": 0.4271, |
|
"step": 319 |
|
}, |
|
{ |
|
"epoch": 0.10666666666666667, |
|
"grad_norm": 1.168047547340393, |
|
"learning_rate": 4.962962962962963e-05, |
|
"loss": 0.308, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 0.107, |
|
"grad_norm": 1.681167721748352, |
|
"learning_rate": 4.961111111111111e-05, |
|
"loss": 0.4, |
|
"step": 321 |
|
}, |
|
{ |
|
"epoch": 0.10733333333333334, |
|
"grad_norm": 1.6703509092330933, |
|
"learning_rate": 4.959259259259259e-05, |
|
"loss": 0.3961, |
|
"step": 322 |
|
}, |
|
{ |
|
"epoch": 0.10766666666666666, |
|
"grad_norm": 1.7819141149520874, |
|
"learning_rate": 4.957407407407408e-05, |
|
"loss": 0.3836, |
|
"step": 323 |
|
}, |
|
{ |
|
"epoch": 0.108, |
|
"grad_norm": 1.3892372846603394, |
|
"learning_rate": 4.955555555555556e-05, |
|
"loss": 0.3315, |
|
"step": 324 |
|
}, |
|
{ |
|
"epoch": 0.10833333333333334, |
|
"grad_norm": 1.8924736976623535, |
|
"learning_rate": 4.9537037037037035e-05, |
|
"loss": 0.3776, |
|
"step": 325 |
|
}, |
|
{ |
|
"epoch": 0.10866666666666666, |
|
"grad_norm": 1.8088842630386353, |
|
"learning_rate": 4.951851851851852e-05, |
|
"loss": 0.3925, |
|
"step": 326 |
|
}, |
|
{ |
|
"epoch": 0.109, |
|
"grad_norm": 1.5073802471160889, |
|
"learning_rate": 4.9500000000000004e-05, |
|
"loss": 0.3759, |
|
"step": 327 |
|
}, |
|
{ |
|
"epoch": 0.10933333333333334, |
|
"grad_norm": 1.6175148487091064, |
|
"learning_rate": 4.9481481481481485e-05, |
|
"loss": 0.4247, |
|
"step": 328 |
|
}, |
|
{ |
|
"epoch": 0.10966666666666666, |
|
"grad_norm": 1.516506314277649, |
|
"learning_rate": 4.9462962962962965e-05, |
|
"loss": 0.3929, |
|
"step": 329 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"grad_norm": 1.4654260873794556, |
|
"learning_rate": 4.9444444444444446e-05, |
|
"loss": 0.3604, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 0.11033333333333334, |
|
"grad_norm": 2.3211357593536377, |
|
"learning_rate": 4.942592592592593e-05, |
|
"loss": 0.387, |
|
"step": 331 |
|
}, |
|
{ |
|
"epoch": 0.11066666666666666, |
|
"grad_norm": 1.5019792318344116, |
|
"learning_rate": 4.940740740740741e-05, |
|
"loss": 0.4104, |
|
"step": 332 |
|
}, |
|
{ |
|
"epoch": 0.111, |
|
"grad_norm": 1.5635384321212769, |
|
"learning_rate": 4.938888888888889e-05, |
|
"loss": 0.373, |
|
"step": 333 |
|
}, |
|
{ |
|
"epoch": 0.11133333333333334, |
|
"grad_norm": 1.4854447841644287, |
|
"learning_rate": 4.937037037037037e-05, |
|
"loss": 0.3901, |
|
"step": 334 |
|
}, |
|
{ |
|
"epoch": 0.11166666666666666, |
|
"grad_norm": 1.634382724761963, |
|
"learning_rate": 4.935185185185186e-05, |
|
"loss": 0.4457, |
|
"step": 335 |
|
}, |
|
{ |
|
"epoch": 0.112, |
|
"grad_norm": 1.4691849946975708, |
|
"learning_rate": 4.933333333333334e-05, |
|
"loss": 0.3956, |
|
"step": 336 |
|
}, |
|
{ |
|
"epoch": 0.11233333333333333, |
|
"grad_norm": 1.7635351419448853, |
|
"learning_rate": 4.931481481481482e-05, |
|
"loss": 0.4459, |
|
"step": 337 |
|
}, |
|
{ |
|
"epoch": 0.11266666666666666, |
|
"grad_norm": 1.4270474910736084, |
|
"learning_rate": 4.92962962962963e-05, |
|
"loss": 0.3152, |
|
"step": 338 |
|
}, |
|
{ |
|
"epoch": 0.113, |
|
"grad_norm": 1.3785789012908936, |
|
"learning_rate": 4.927777777777778e-05, |
|
"loss": 0.3155, |
|
"step": 339 |
|
}, |
|
{ |
|
"epoch": 0.11333333333333333, |
|
"grad_norm": 1.5080225467681885, |
|
"learning_rate": 4.925925925925926e-05, |
|
"loss": 0.4339, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 0.11366666666666667, |
|
"grad_norm": 1.536300778388977, |
|
"learning_rate": 4.924074074074074e-05, |
|
"loss": 0.3227, |
|
"step": 341 |
|
}, |
|
{ |
|
"epoch": 0.114, |
|
"grad_norm": 1.619066834449768, |
|
"learning_rate": 4.922222222222222e-05, |
|
"loss": 0.4118, |
|
"step": 342 |
|
}, |
|
{ |
|
"epoch": 0.11433333333333333, |
|
"grad_norm": 1.470788598060608, |
|
"learning_rate": 4.920370370370371e-05, |
|
"loss": 0.3655, |
|
"step": 343 |
|
}, |
|
{ |
|
"epoch": 0.11466666666666667, |
|
"grad_norm": 2.8463382720947266, |
|
"learning_rate": 4.918518518518519e-05, |
|
"loss": 0.3205, |
|
"step": 344 |
|
}, |
|
{ |
|
"epoch": 0.115, |
|
"grad_norm": 1.6264667510986328, |
|
"learning_rate": 4.9166666666666665e-05, |
|
"loss": 0.3792, |
|
"step": 345 |
|
}, |
|
{ |
|
"epoch": 0.11533333333333333, |
|
"grad_norm": 1.660156011581421, |
|
"learning_rate": 4.9148148148148145e-05, |
|
"loss": 0.451, |
|
"step": 346 |
|
}, |
|
{ |
|
"epoch": 0.11566666666666667, |
|
"grad_norm": 1.513501763343811, |
|
"learning_rate": 4.912962962962963e-05, |
|
"loss": 0.3873, |
|
"step": 347 |
|
}, |
|
{ |
|
"epoch": 0.116, |
|
"grad_norm": 1.311440348625183, |
|
"learning_rate": 4.9111111111111114e-05, |
|
"loss": 0.2904, |
|
"step": 348 |
|
}, |
|
{ |
|
"epoch": 0.11633333333333333, |
|
"grad_norm": 1.6002171039581299, |
|
"learning_rate": 4.9092592592592595e-05, |
|
"loss": 0.3901, |
|
"step": 349 |
|
}, |
|
{ |
|
"epoch": 0.11666666666666667, |
|
"grad_norm": 1.3863859176635742, |
|
"learning_rate": 4.9074074074074075e-05, |
|
"loss": 0.3675, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 0.117, |
|
"grad_norm": 1.4766677618026733, |
|
"learning_rate": 4.905555555555556e-05, |
|
"loss": 0.3755, |
|
"step": 351 |
|
}, |
|
{ |
|
"epoch": 0.11733333333333333, |
|
"grad_norm": 1.4965181350708008, |
|
"learning_rate": 4.903703703703704e-05, |
|
"loss": 0.374, |
|
"step": 352 |
|
}, |
|
{ |
|
"epoch": 0.11766666666666667, |
|
"grad_norm": 1.6470006704330444, |
|
"learning_rate": 4.901851851851852e-05, |
|
"loss": 0.3664, |
|
"step": 353 |
|
}, |
|
{ |
|
"epoch": 0.118, |
|
"grad_norm": 1.9289568662643433, |
|
"learning_rate": 4.9e-05, |
|
"loss": 0.4022, |
|
"step": 354 |
|
}, |
|
{ |
|
"epoch": 0.11833333333333333, |
|
"grad_norm": 1.4589459896087646, |
|
"learning_rate": 4.8981481481481486e-05, |
|
"loss": 0.347, |
|
"step": 355 |
|
}, |
|
{ |
|
"epoch": 0.11866666666666667, |
|
"grad_norm": 1.5202605724334717, |
|
"learning_rate": 4.896296296296297e-05, |
|
"loss": 0.358, |
|
"step": 356 |
|
}, |
|
{ |
|
"epoch": 0.119, |
|
"grad_norm": 1.4946200847625732, |
|
"learning_rate": 4.894444444444445e-05, |
|
"loss": 0.3375, |
|
"step": 357 |
|
}, |
|
{ |
|
"epoch": 0.11933333333333333, |
|
"grad_norm": 1.8175865411758423, |
|
"learning_rate": 4.892592592592593e-05, |
|
"loss": 0.4148, |
|
"step": 358 |
|
}, |
|
{ |
|
"epoch": 0.11966666666666667, |
|
"grad_norm": 1.3258353471755981, |
|
"learning_rate": 4.890740740740741e-05, |
|
"loss": 0.3133, |
|
"step": 359 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"grad_norm": 1.7926863431930542, |
|
"learning_rate": 4.888888888888889e-05, |
|
"loss": 0.5019, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 0.12033333333333333, |
|
"grad_norm": 1.3644227981567383, |
|
"learning_rate": 4.887037037037037e-05, |
|
"loss": 0.3788, |
|
"step": 361 |
|
}, |
|
{ |
|
"epoch": 0.12066666666666667, |
|
"grad_norm": 1.3067071437835693, |
|
"learning_rate": 4.885185185185185e-05, |
|
"loss": 0.3615, |
|
"step": 362 |
|
}, |
|
{ |
|
"epoch": 0.121, |
|
"grad_norm": 1.4631500244140625, |
|
"learning_rate": 4.883333333333334e-05, |
|
"loss": 0.3555, |
|
"step": 363 |
|
}, |
|
{ |
|
"epoch": 0.12133333333333333, |
|
"grad_norm": 1.3096414804458618, |
|
"learning_rate": 4.881481481481482e-05, |
|
"loss": 0.3161, |
|
"step": 364 |
|
}, |
|
{ |
|
"epoch": 0.12166666666666667, |
|
"grad_norm": 1.5563383102416992, |
|
"learning_rate": 4.87962962962963e-05, |
|
"loss": 0.3903, |
|
"step": 365 |
|
}, |
|
{ |
|
"epoch": 0.122, |
|
"grad_norm": 1.45024573802948, |
|
"learning_rate": 4.8777777777777775e-05, |
|
"loss": 0.3335, |
|
"step": 366 |
|
}, |
|
{ |
|
"epoch": 0.12233333333333334, |
|
"grad_norm": 1.3422824144363403, |
|
"learning_rate": 4.875925925925926e-05, |
|
"loss": 0.3419, |
|
"step": 367 |
|
}, |
|
{ |
|
"epoch": 0.12266666666666666, |
|
"grad_norm": 1.779746651649475, |
|
"learning_rate": 4.874074074074074e-05, |
|
"loss": 0.4075, |
|
"step": 368 |
|
}, |
|
{ |
|
"epoch": 0.123, |
|
"grad_norm": 1.5517817735671997, |
|
"learning_rate": 4.8722222222222224e-05, |
|
"loss": 0.3384, |
|
"step": 369 |
|
}, |
|
{ |
|
"epoch": 0.12333333333333334, |
|
"grad_norm": 1.6251047849655151, |
|
"learning_rate": 4.8703703703703704e-05, |
|
"loss": 0.3878, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 0.12366666666666666, |
|
"grad_norm": 1.40427565574646, |
|
"learning_rate": 4.868518518518519e-05, |
|
"loss": 0.3203, |
|
"step": 371 |
|
}, |
|
{ |
|
"epoch": 0.124, |
|
"grad_norm": 1.3117016553878784, |
|
"learning_rate": 4.866666666666667e-05, |
|
"loss": 0.3891, |
|
"step": 372 |
|
}, |
|
{ |
|
"epoch": 0.12433333333333334, |
|
"grad_norm": 1.444316029548645, |
|
"learning_rate": 4.864814814814815e-05, |
|
"loss": 0.3567, |
|
"step": 373 |
|
}, |
|
{ |
|
"epoch": 0.12466666666666666, |
|
"grad_norm": 1.483818769454956, |
|
"learning_rate": 4.862962962962963e-05, |
|
"loss": 0.347, |
|
"step": 374 |
|
}, |
|
{ |
|
"epoch": 0.125, |
|
"grad_norm": 5.050604820251465, |
|
"learning_rate": 4.8611111111111115e-05, |
|
"loss": 0.436, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 0.12533333333333332, |
|
"grad_norm": 2.0448899269104004, |
|
"learning_rate": 4.8592592592592596e-05, |
|
"loss": 0.3999, |
|
"step": 376 |
|
}, |
|
{ |
|
"epoch": 0.12566666666666668, |
|
"grad_norm": 1.5457038879394531, |
|
"learning_rate": 4.857407407407408e-05, |
|
"loss": 0.3809, |
|
"step": 377 |
|
}, |
|
{ |
|
"epoch": 0.126, |
|
"grad_norm": 1.1272550821304321, |
|
"learning_rate": 4.855555555555556e-05, |
|
"loss": 0.2861, |
|
"step": 378 |
|
}, |
|
{ |
|
"epoch": 0.12633333333333333, |
|
"grad_norm": 1.2987323999404907, |
|
"learning_rate": 4.8537037037037045e-05, |
|
"loss": 0.3667, |
|
"step": 379 |
|
}, |
|
{ |
|
"epoch": 0.12666666666666668, |
|
"grad_norm": 1.317092776298523, |
|
"learning_rate": 4.851851851851852e-05, |
|
"loss": 0.3122, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 0.127, |
|
"grad_norm": 1.9207242727279663, |
|
"learning_rate": 4.85e-05, |
|
"loss": 0.4691, |
|
"step": 381 |
|
}, |
|
{ |
|
"epoch": 0.12733333333333333, |
|
"grad_norm": 1.8333582878112793, |
|
"learning_rate": 4.848148148148148e-05, |
|
"loss": 0.4399, |
|
"step": 382 |
|
}, |
|
{ |
|
"epoch": 0.12766666666666668, |
|
"grad_norm": 1.4632537364959717, |
|
"learning_rate": 4.846296296296297e-05, |
|
"loss": 0.2977, |
|
"step": 383 |
|
}, |
|
{ |
|
"epoch": 0.128, |
|
"grad_norm": 1.47628915309906, |
|
"learning_rate": 4.844444444444445e-05, |
|
"loss": 0.3357, |
|
"step": 384 |
|
}, |
|
{ |
|
"epoch": 0.12833333333333333, |
|
"grad_norm": 1.628018856048584, |
|
"learning_rate": 4.842592592592593e-05, |
|
"loss": 0.3637, |
|
"step": 385 |
|
}, |
|
{ |
|
"epoch": 0.12866666666666668, |
|
"grad_norm": 1.3261082172393799, |
|
"learning_rate": 4.840740740740741e-05, |
|
"loss": 0.3491, |
|
"step": 386 |
|
}, |
|
{ |
|
"epoch": 0.129, |
|
"grad_norm": 1.5615298748016357, |
|
"learning_rate": 4.838888888888889e-05, |
|
"loss": 0.3898, |
|
"step": 387 |
|
}, |
|
{ |
|
"epoch": 0.12933333333333333, |
|
"grad_norm": 1.3540629148483276, |
|
"learning_rate": 4.837037037037037e-05, |
|
"loss": 0.3469, |
|
"step": 388 |
|
}, |
|
{ |
|
"epoch": 0.12966666666666668, |
|
"grad_norm": 1.8067810535430908, |
|
"learning_rate": 4.835185185185185e-05, |
|
"loss": 0.4265, |
|
"step": 389 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"grad_norm": 1.4625282287597656, |
|
"learning_rate": 4.8333333333333334e-05, |
|
"loss": 0.4109, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 0.13033333333333333, |
|
"grad_norm": 1.2926377058029175, |
|
"learning_rate": 4.831481481481482e-05, |
|
"loss": 0.35, |
|
"step": 391 |
|
}, |
|
{ |
|
"epoch": 0.13066666666666665, |
|
"grad_norm": 1.5411444902420044, |
|
"learning_rate": 4.82962962962963e-05, |
|
"loss": 0.3599, |
|
"step": 392 |
|
}, |
|
{ |
|
"epoch": 0.131, |
|
"grad_norm": 1.6826238632202148, |
|
"learning_rate": 4.8277777777777776e-05, |
|
"loss": 0.5067, |
|
"step": 393 |
|
}, |
|
{ |
|
"epoch": 0.13133333333333333, |
|
"grad_norm": 1.5270205736160278, |
|
"learning_rate": 4.825925925925926e-05, |
|
"loss": 0.4664, |
|
"step": 394 |
|
}, |
|
{ |
|
"epoch": 0.13166666666666665, |
|
"grad_norm": 1.546836256980896, |
|
"learning_rate": 4.8240740740740744e-05, |
|
"loss": 0.3871, |
|
"step": 395 |
|
}, |
|
{ |
|
"epoch": 0.132, |
|
"grad_norm": 1.5166618824005127, |
|
"learning_rate": 4.8222222222222225e-05, |
|
"loss": 0.3154, |
|
"step": 396 |
|
}, |
|
{ |
|
"epoch": 0.13233333333333333, |
|
"grad_norm": 1.4706875085830688, |
|
"learning_rate": 4.8203703703703706e-05, |
|
"loss": 0.37, |
|
"step": 397 |
|
}, |
|
{ |
|
"epoch": 0.13266666666666665, |
|
"grad_norm": 1.577710509300232, |
|
"learning_rate": 4.818518518518519e-05, |
|
"loss": 0.3334, |
|
"step": 398 |
|
}, |
|
{ |
|
"epoch": 0.133, |
|
"grad_norm": 2.96756911277771, |
|
"learning_rate": 4.8166666666666674e-05, |
|
"loss": 0.3901, |
|
"step": 399 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 1.3939603567123413, |
|
"learning_rate": 4.814814814814815e-05, |
|
"loss": 0.3086, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.13366666666666666, |
|
"grad_norm": 1.8783942461013794, |
|
"learning_rate": 4.812962962962963e-05, |
|
"loss": 0.5443, |
|
"step": 401 |
|
}, |
|
{ |
|
"epoch": 0.134, |
|
"grad_norm": 1.639843225479126, |
|
"learning_rate": 4.811111111111111e-05, |
|
"loss": 0.5519, |
|
"step": 402 |
|
}, |
|
{ |
|
"epoch": 0.13433333333333333, |
|
"grad_norm": 1.6600115299224854, |
|
"learning_rate": 4.80925925925926e-05, |
|
"loss": 0.3592, |
|
"step": 403 |
|
}, |
|
{ |
|
"epoch": 0.13466666666666666, |
|
"grad_norm": 1.3091179132461548, |
|
"learning_rate": 4.807407407407408e-05, |
|
"loss": 0.3065, |
|
"step": 404 |
|
}, |
|
{ |
|
"epoch": 0.135, |
|
"grad_norm": 3.4881818294525146, |
|
"learning_rate": 4.805555555555556e-05, |
|
"loss": 0.3254, |
|
"step": 405 |
|
}, |
|
{ |
|
"epoch": 0.13533333333333333, |
|
"grad_norm": 1.6983367204666138, |
|
"learning_rate": 4.803703703703704e-05, |
|
"loss": 0.4013, |
|
"step": 406 |
|
}, |
|
{ |
|
"epoch": 0.13566666666666666, |
|
"grad_norm": 1.4208776950836182, |
|
"learning_rate": 4.801851851851852e-05, |
|
"loss": 0.3775, |
|
"step": 407 |
|
}, |
|
{ |
|
"epoch": 0.136, |
|
"grad_norm": 1.1817011833190918, |
|
"learning_rate": 4.8e-05, |
|
"loss": 0.3014, |
|
"step": 408 |
|
}, |
|
{ |
|
"epoch": 0.13633333333333333, |
|
"grad_norm": 2.8179917335510254, |
|
"learning_rate": 4.798148148148148e-05, |
|
"loss": 0.3102, |
|
"step": 409 |
|
}, |
|
{ |
|
"epoch": 0.13666666666666666, |
|
"grad_norm": 1.780457615852356, |
|
"learning_rate": 4.796296296296296e-05, |
|
"loss": 0.3795, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 0.137, |
|
"grad_norm": 2.187234878540039, |
|
"learning_rate": 4.794444444444445e-05, |
|
"loss": 0.4098, |
|
"step": 411 |
|
}, |
|
{ |
|
"epoch": 0.13733333333333334, |
|
"grad_norm": 1.4273678064346313, |
|
"learning_rate": 4.792592592592593e-05, |
|
"loss": 0.3654, |
|
"step": 412 |
|
}, |
|
{ |
|
"epoch": 0.13766666666666666, |
|
"grad_norm": 1.4316853284835815, |
|
"learning_rate": 4.790740740740741e-05, |
|
"loss": 0.3317, |
|
"step": 413 |
|
}, |
|
{ |
|
"epoch": 0.138, |
|
"grad_norm": 1.5158627033233643, |
|
"learning_rate": 4.7888888888888886e-05, |
|
"loss": 0.4107, |
|
"step": 414 |
|
}, |
|
{ |
|
"epoch": 0.13833333333333334, |
|
"grad_norm": 1.4416333436965942, |
|
"learning_rate": 4.7870370370370373e-05, |
|
"loss": 0.356, |
|
"step": 415 |
|
}, |
|
{ |
|
"epoch": 0.13866666666666666, |
|
"grad_norm": 1.600272297859192, |
|
"learning_rate": 4.7851851851851854e-05, |
|
"loss": 0.4041, |
|
"step": 416 |
|
}, |
|
{ |
|
"epoch": 0.139, |
|
"grad_norm": 1.4517465829849243, |
|
"learning_rate": 4.7833333333333335e-05, |
|
"loss": 0.3554, |
|
"step": 417 |
|
}, |
|
{ |
|
"epoch": 0.13933333333333334, |
|
"grad_norm": 1.8297104835510254, |
|
"learning_rate": 4.7814814814814816e-05, |
|
"loss": 0.4244, |
|
"step": 418 |
|
}, |
|
{ |
|
"epoch": 0.13966666666666666, |
|
"grad_norm": 1.4831371307373047, |
|
"learning_rate": 4.77962962962963e-05, |
|
"loss": 0.3987, |
|
"step": 419 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"grad_norm": 1.6603938341140747, |
|
"learning_rate": 4.7777777777777784e-05, |
|
"loss": 0.4253, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 0.14033333333333334, |
|
"grad_norm": 1.577906847000122, |
|
"learning_rate": 4.775925925925926e-05, |
|
"loss": 0.4154, |
|
"step": 421 |
|
}, |
|
{ |
|
"epoch": 0.14066666666666666, |
|
"grad_norm": 1.594200611114502, |
|
"learning_rate": 4.774074074074074e-05, |
|
"loss": 0.3967, |
|
"step": 422 |
|
}, |
|
{ |
|
"epoch": 0.141, |
|
"grad_norm": 1.3381290435791016, |
|
"learning_rate": 4.7722222222222226e-05, |
|
"loss": 0.3398, |
|
"step": 423 |
|
}, |
|
{ |
|
"epoch": 0.14133333333333334, |
|
"grad_norm": 1.574758768081665, |
|
"learning_rate": 4.770370370370371e-05, |
|
"loss": 0.2969, |
|
"step": 424 |
|
}, |
|
{ |
|
"epoch": 0.14166666666666666, |
|
"grad_norm": 1.4329252243041992, |
|
"learning_rate": 4.768518518518519e-05, |
|
"loss": 0.3546, |
|
"step": 425 |
|
}, |
|
{ |
|
"epoch": 0.142, |
|
"grad_norm": 1.4215891361236572, |
|
"learning_rate": 4.766666666666667e-05, |
|
"loss": 0.3441, |
|
"step": 426 |
|
}, |
|
{ |
|
"epoch": 0.14233333333333334, |
|
"grad_norm": 1.549372673034668, |
|
"learning_rate": 4.764814814814815e-05, |
|
"loss": 0.3625, |
|
"step": 427 |
|
}, |
|
{ |
|
"epoch": 0.14266666666666666, |
|
"grad_norm": 1.610260009765625, |
|
"learning_rate": 4.762962962962963e-05, |
|
"loss": 0.3933, |
|
"step": 428 |
|
}, |
|
{ |
|
"epoch": 0.143, |
|
"grad_norm": 1.4108293056488037, |
|
"learning_rate": 4.761111111111111e-05, |
|
"loss": 0.354, |
|
"step": 429 |
|
}, |
|
{ |
|
"epoch": 0.14333333333333334, |
|
"grad_norm": 2.310365676879883, |
|
"learning_rate": 4.759259259259259e-05, |
|
"loss": 0.3825, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 0.14366666666666666, |
|
"grad_norm": 1.607605218887329, |
|
"learning_rate": 4.757407407407408e-05, |
|
"loss": 0.4195, |
|
"step": 431 |
|
}, |
|
{ |
|
"epoch": 0.144, |
|
"grad_norm": 1.4815714359283447, |
|
"learning_rate": 4.755555555555556e-05, |
|
"loss": 0.3548, |
|
"step": 432 |
|
}, |
|
{ |
|
"epoch": 0.14433333333333334, |
|
"grad_norm": 1.4924988746643066, |
|
"learning_rate": 4.753703703703704e-05, |
|
"loss": 0.3967, |
|
"step": 433 |
|
}, |
|
{ |
|
"epoch": 0.14466666666666667, |
|
"grad_norm": 2.915475368499756, |
|
"learning_rate": 4.751851851851852e-05, |
|
"loss": 0.3949, |
|
"step": 434 |
|
}, |
|
{ |
|
"epoch": 0.145, |
|
"grad_norm": 1.5413134098052979, |
|
"learning_rate": 4.75e-05, |
|
"loss": 0.3973, |
|
"step": 435 |
|
}, |
|
{ |
|
"epoch": 0.14533333333333334, |
|
"grad_norm": 1.9248411655426025, |
|
"learning_rate": 4.7481481481481483e-05, |
|
"loss": 0.3784, |
|
"step": 436 |
|
}, |
|
{ |
|
"epoch": 0.14566666666666667, |
|
"grad_norm": 1.6248245239257812, |
|
"learning_rate": 4.7462962962962964e-05, |
|
"loss": 0.4119, |
|
"step": 437 |
|
}, |
|
{ |
|
"epoch": 0.146, |
|
"grad_norm": 1.705633282661438, |
|
"learning_rate": 4.7444444444444445e-05, |
|
"loss": 0.4396, |
|
"step": 438 |
|
}, |
|
{ |
|
"epoch": 0.14633333333333334, |
|
"grad_norm": 1.4687634706497192, |
|
"learning_rate": 4.742592592592593e-05, |
|
"loss": 0.3852, |
|
"step": 439 |
|
}, |
|
{ |
|
"epoch": 0.14666666666666667, |
|
"grad_norm": 1.8919180631637573, |
|
"learning_rate": 4.740740740740741e-05, |
|
"loss": 0.3819, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 0.147, |
|
"grad_norm": 1.371976375579834, |
|
"learning_rate": 4.7388888888888894e-05, |
|
"loss": 0.3571, |
|
"step": 441 |
|
}, |
|
{ |
|
"epoch": 0.14733333333333334, |
|
"grad_norm": 2.8801138401031494, |
|
"learning_rate": 4.737037037037037e-05, |
|
"loss": 0.4213, |
|
"step": 442 |
|
}, |
|
{ |
|
"epoch": 0.14766666666666667, |
|
"grad_norm": 1.6173559427261353, |
|
"learning_rate": 4.7351851851851856e-05, |
|
"loss": 0.3702, |
|
"step": 443 |
|
}, |
|
{ |
|
"epoch": 0.148, |
|
"grad_norm": 1.2258858680725098, |
|
"learning_rate": 4.7333333333333336e-05, |
|
"loss": 0.3285, |
|
"step": 444 |
|
}, |
|
{ |
|
"epoch": 0.14833333333333334, |
|
"grad_norm": 1.3034180402755737, |
|
"learning_rate": 4.731481481481482e-05, |
|
"loss": 0.3267, |
|
"step": 445 |
|
}, |
|
{ |
|
"epoch": 0.14866666666666667, |
|
"grad_norm": 1.6660559177398682, |
|
"learning_rate": 4.72962962962963e-05, |
|
"loss": 0.4348, |
|
"step": 446 |
|
}, |
|
{ |
|
"epoch": 0.149, |
|
"grad_norm": 1.300252079963684, |
|
"learning_rate": 4.727777777777778e-05, |
|
"loss": 0.3129, |
|
"step": 447 |
|
}, |
|
{ |
|
"epoch": 0.14933333333333335, |
|
"grad_norm": 1.5774869918823242, |
|
"learning_rate": 4.7259259259259266e-05, |
|
"loss": 0.3948, |
|
"step": 448 |
|
}, |
|
{ |
|
"epoch": 0.14966666666666667, |
|
"grad_norm": 1.485144853591919, |
|
"learning_rate": 4.724074074074074e-05, |
|
"loss": 0.3215, |
|
"step": 449 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"grad_norm": 1.4521360397338867, |
|
"learning_rate": 4.722222222222222e-05, |
|
"loss": 0.3585, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 0.15033333333333335, |
|
"grad_norm": 1.3035513162612915, |
|
"learning_rate": 4.720370370370371e-05, |
|
"loss": 0.2725, |
|
"step": 451 |
|
}, |
|
{ |
|
"epoch": 0.15066666666666667, |
|
"grad_norm": 1.727379322052002, |
|
"learning_rate": 4.718518518518519e-05, |
|
"loss": 0.4097, |
|
"step": 452 |
|
}, |
|
{ |
|
"epoch": 0.151, |
|
"grad_norm": 2.3666672706604004, |
|
"learning_rate": 4.716666666666667e-05, |
|
"loss": 0.4662, |
|
"step": 453 |
|
}, |
|
{ |
|
"epoch": 0.15133333333333332, |
|
"grad_norm": 1.654421091079712, |
|
"learning_rate": 4.714814814814815e-05, |
|
"loss": 0.3372, |
|
"step": 454 |
|
}, |
|
{ |
|
"epoch": 0.15166666666666667, |
|
"grad_norm": 1.6819572448730469, |
|
"learning_rate": 4.712962962962963e-05, |
|
"loss": 0.435, |
|
"step": 455 |
|
}, |
|
{ |
|
"epoch": 0.152, |
|
"grad_norm": 1.5675102472305298, |
|
"learning_rate": 4.711111111111111e-05, |
|
"loss": 0.4012, |
|
"step": 456 |
|
}, |
|
{ |
|
"epoch": 0.15233333333333332, |
|
"grad_norm": 1.4625293016433716, |
|
"learning_rate": 4.709259259259259e-05, |
|
"loss": 0.3838, |
|
"step": 457 |
|
}, |
|
{ |
|
"epoch": 0.15266666666666667, |
|
"grad_norm": 1.520033836364746, |
|
"learning_rate": 4.7074074074074074e-05, |
|
"loss": 0.366, |
|
"step": 458 |
|
}, |
|
{ |
|
"epoch": 0.153, |
|
"grad_norm": 1.2604353427886963, |
|
"learning_rate": 4.7055555555555555e-05, |
|
"loss": 0.2488, |
|
"step": 459 |
|
}, |
|
{ |
|
"epoch": 0.15333333333333332, |
|
"grad_norm": 1.4598571062088013, |
|
"learning_rate": 4.703703703703704e-05, |
|
"loss": 0.3245, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 0.15366666666666667, |
|
"grad_norm": 1.609896183013916, |
|
"learning_rate": 4.701851851851852e-05, |
|
"loss": 0.3609, |
|
"step": 461 |
|
}, |
|
{ |
|
"epoch": 0.154, |
|
"grad_norm": 1.4688657522201538, |
|
"learning_rate": 4.7e-05, |
|
"loss": 0.3607, |
|
"step": 462 |
|
}, |
|
{ |
|
"epoch": 0.15433333333333332, |
|
"grad_norm": 1.243186354637146, |
|
"learning_rate": 4.6981481481481485e-05, |
|
"loss": 0.3003, |
|
"step": 463 |
|
}, |
|
{ |
|
"epoch": 0.15466666666666667, |
|
"grad_norm": 1.4108368158340454, |
|
"learning_rate": 4.6962962962962966e-05, |
|
"loss": 0.3519, |
|
"step": 464 |
|
}, |
|
{ |
|
"epoch": 0.155, |
|
"grad_norm": 7.958014965057373, |
|
"learning_rate": 4.6944444444444446e-05, |
|
"loss": 0.3188, |
|
"step": 465 |
|
}, |
|
{ |
|
"epoch": 0.15533333333333332, |
|
"grad_norm": 1.6169638633728027, |
|
"learning_rate": 4.692592592592593e-05, |
|
"loss": 0.3719, |
|
"step": 466 |
|
}, |
|
{ |
|
"epoch": 0.15566666666666668, |
|
"grad_norm": 1.5462708473205566, |
|
"learning_rate": 4.690740740740741e-05, |
|
"loss": 0.3421, |
|
"step": 467 |
|
}, |
|
{ |
|
"epoch": 0.156, |
|
"grad_norm": 1.8130849599838257, |
|
"learning_rate": 4.6888888888888895e-05, |
|
"loss": 0.394, |
|
"step": 468 |
|
}, |
|
{ |
|
"epoch": 0.15633333333333332, |
|
"grad_norm": 1.4210973978042603, |
|
"learning_rate": 4.687037037037037e-05, |
|
"loss": 0.4152, |
|
"step": 469 |
|
}, |
|
{ |
|
"epoch": 0.15666666666666668, |
|
"grad_norm": 1.6681641340255737, |
|
"learning_rate": 4.685185185185185e-05, |
|
"loss": 0.422, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 0.157, |
|
"grad_norm": 1.3365411758422852, |
|
"learning_rate": 4.683333333333334e-05, |
|
"loss": 0.3282, |
|
"step": 471 |
|
}, |
|
{ |
|
"epoch": 0.15733333333333333, |
|
"grad_norm": 1.6300495862960815, |
|
"learning_rate": 4.681481481481482e-05, |
|
"loss": 0.3325, |
|
"step": 472 |
|
}, |
|
{ |
|
"epoch": 0.15766666666666668, |
|
"grad_norm": 1.8083395957946777, |
|
"learning_rate": 4.67962962962963e-05, |
|
"loss": 0.4878, |
|
"step": 473 |
|
}, |
|
{ |
|
"epoch": 0.158, |
|
"grad_norm": 2.474660634994507, |
|
"learning_rate": 4.677777777777778e-05, |
|
"loss": 0.3831, |
|
"step": 474 |
|
}, |
|
{ |
|
"epoch": 0.15833333333333333, |
|
"grad_norm": 1.2663764953613281, |
|
"learning_rate": 4.675925925925926e-05, |
|
"loss": 0.2903, |
|
"step": 475 |
|
}, |
|
{ |
|
"epoch": 0.15866666666666668, |
|
"grad_norm": 1.615507960319519, |
|
"learning_rate": 4.674074074074074e-05, |
|
"loss": 0.4286, |
|
"step": 476 |
|
}, |
|
{ |
|
"epoch": 0.159, |
|
"grad_norm": 1.31894850730896, |
|
"learning_rate": 4.672222222222222e-05, |
|
"loss": 0.3779, |
|
"step": 477 |
|
}, |
|
{ |
|
"epoch": 0.15933333333333333, |
|
"grad_norm": 1.6353154182434082, |
|
"learning_rate": 4.67037037037037e-05, |
|
"loss": 0.4092, |
|
"step": 478 |
|
}, |
|
{ |
|
"epoch": 0.15966666666666668, |
|
"grad_norm": 1.4601986408233643, |
|
"learning_rate": 4.6685185185185184e-05, |
|
"loss": 0.3107, |
|
"step": 479 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"grad_norm": 1.5335056781768799, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 0.3519, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 0.16033333333333333, |
|
"grad_norm": 1.3570960760116577, |
|
"learning_rate": 4.664814814814815e-05, |
|
"loss": 0.3462, |
|
"step": 481 |
|
}, |
|
{ |
|
"epoch": 0.16066666666666668, |
|
"grad_norm": 1.6119030714035034, |
|
"learning_rate": 4.662962962962963e-05, |
|
"loss": 0.4134, |
|
"step": 482 |
|
}, |
|
{ |
|
"epoch": 0.161, |
|
"grad_norm": 1.5040596723556519, |
|
"learning_rate": 4.6611111111111114e-05, |
|
"loss": 0.3403, |
|
"step": 483 |
|
}, |
|
{ |
|
"epoch": 0.16133333333333333, |
|
"grad_norm": 1.6691622734069824, |
|
"learning_rate": 4.6592592592592595e-05, |
|
"loss": 0.3845, |
|
"step": 484 |
|
}, |
|
{ |
|
"epoch": 0.16166666666666665, |
|
"grad_norm": 1.212578296661377, |
|
"learning_rate": 4.6574074074074076e-05, |
|
"loss": 0.295, |
|
"step": 485 |
|
}, |
|
{ |
|
"epoch": 0.162, |
|
"grad_norm": 1.5998772382736206, |
|
"learning_rate": 4.6555555555555556e-05, |
|
"loss": 0.3452, |
|
"step": 486 |
|
}, |
|
{ |
|
"epoch": 0.16233333333333333, |
|
"grad_norm": 1.5955681800842285, |
|
"learning_rate": 4.653703703703704e-05, |
|
"loss": 0.3911, |
|
"step": 487 |
|
}, |
|
{ |
|
"epoch": 0.16266666666666665, |
|
"grad_norm": 1.948377013206482, |
|
"learning_rate": 4.6518518518518525e-05, |
|
"loss": 0.4885, |
|
"step": 488 |
|
}, |
|
{ |
|
"epoch": 0.163, |
|
"grad_norm": 1.562285304069519, |
|
"learning_rate": 4.6500000000000005e-05, |
|
"loss": 0.354, |
|
"step": 489 |
|
}, |
|
{ |
|
"epoch": 0.16333333333333333, |
|
"grad_norm": 1.3308295011520386, |
|
"learning_rate": 4.648148148148148e-05, |
|
"loss": 0.3341, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 0.16366666666666665, |
|
"grad_norm": 1.470138430595398, |
|
"learning_rate": 4.646296296296297e-05, |
|
"loss": 0.3751, |
|
"step": 491 |
|
}, |
|
{ |
|
"epoch": 0.164, |
|
"grad_norm": 1.4458322525024414, |
|
"learning_rate": 4.644444444444445e-05, |
|
"loss": 0.3457, |
|
"step": 492 |
|
}, |
|
{ |
|
"epoch": 0.16433333333333333, |
|
"grad_norm": 1.457342505455017, |
|
"learning_rate": 4.642592592592593e-05, |
|
"loss": 0.3596, |
|
"step": 493 |
|
}, |
|
{ |
|
"epoch": 0.16466666666666666, |
|
"grad_norm": 1.5412640571594238, |
|
"learning_rate": 4.640740740740741e-05, |
|
"loss": 0.3418, |
|
"step": 494 |
|
}, |
|
{ |
|
"epoch": 0.165, |
|
"grad_norm": 1.472030520439148, |
|
"learning_rate": 4.638888888888889e-05, |
|
"loss": 0.3425, |
|
"step": 495 |
|
}, |
|
{ |
|
"epoch": 0.16533333333333333, |
|
"grad_norm": 1.6183019876480103, |
|
"learning_rate": 4.637037037037038e-05, |
|
"loss": 0.3352, |
|
"step": 496 |
|
}, |
|
{ |
|
"epoch": 0.16566666666666666, |
|
"grad_norm": 2.019596815109253, |
|
"learning_rate": 4.635185185185185e-05, |
|
"loss": 0.3578, |
|
"step": 497 |
|
}, |
|
{ |
|
"epoch": 0.166, |
|
"grad_norm": 1.3924508094787598, |
|
"learning_rate": 4.633333333333333e-05, |
|
"loss": 0.3676, |
|
"step": 498 |
|
}, |
|
{ |
|
"epoch": 0.16633333333333333, |
|
"grad_norm": 1.27180016040802, |
|
"learning_rate": 4.631481481481481e-05, |
|
"loss": 0.3179, |
|
"step": 499 |
|
}, |
|
{ |
|
"epoch": 0.16666666666666666, |
|
"grad_norm": 1.225780725479126, |
|
"learning_rate": 4.62962962962963e-05, |
|
"loss": 0.3431, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.167, |
|
"grad_norm": 1.793016791343689, |
|
"learning_rate": 4.627777777777778e-05, |
|
"loss": 0.4867, |
|
"step": 501 |
|
}, |
|
{ |
|
"epoch": 0.16733333333333333, |
|
"grad_norm": 1.5788778066635132, |
|
"learning_rate": 4.625925925925926e-05, |
|
"loss": 0.3276, |
|
"step": 502 |
|
}, |
|
{ |
|
"epoch": 0.16766666666666666, |
|
"grad_norm": 1.751562476158142, |
|
"learning_rate": 4.624074074074074e-05, |
|
"loss": 0.4539, |
|
"step": 503 |
|
}, |
|
{ |
|
"epoch": 0.168, |
|
"grad_norm": 1.431057333946228, |
|
"learning_rate": 4.6222222222222224e-05, |
|
"loss": 0.3713, |
|
"step": 504 |
|
}, |
|
{ |
|
"epoch": 0.16833333333333333, |
|
"grad_norm": 1.3699835538864136, |
|
"learning_rate": 4.6203703703703705e-05, |
|
"loss": 0.3447, |
|
"step": 505 |
|
}, |
|
{ |
|
"epoch": 0.16866666666666666, |
|
"grad_norm": 1.5171544551849365, |
|
"learning_rate": 4.6185185185185185e-05, |
|
"loss": 0.2956, |
|
"step": 506 |
|
}, |
|
{ |
|
"epoch": 0.169, |
|
"grad_norm": 1.7429660558700562, |
|
"learning_rate": 4.6166666666666666e-05, |
|
"loss": 0.3909, |
|
"step": 507 |
|
}, |
|
{ |
|
"epoch": 0.16933333333333334, |
|
"grad_norm": 1.7300422191619873, |
|
"learning_rate": 4.6148148148148154e-05, |
|
"loss": 0.4494, |
|
"step": 508 |
|
}, |
|
{ |
|
"epoch": 0.16966666666666666, |
|
"grad_norm": 1.264761209487915, |
|
"learning_rate": 4.6129629629629635e-05, |
|
"loss": 0.2988, |
|
"step": 509 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"grad_norm": 1.6348915100097656, |
|
"learning_rate": 4.6111111111111115e-05, |
|
"loss": 0.3799, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 0.17033333333333334, |
|
"grad_norm": 1.5455849170684814, |
|
"learning_rate": 4.6092592592592596e-05, |
|
"loss": 0.3082, |
|
"step": 511 |
|
}, |
|
{ |
|
"epoch": 0.17066666666666666, |
|
"grad_norm": 1.5002715587615967, |
|
"learning_rate": 4.607407407407408e-05, |
|
"loss": 0.388, |
|
"step": 512 |
|
}, |
|
{ |
|
"epoch": 0.171, |
|
"grad_norm": 1.3733866214752197, |
|
"learning_rate": 4.605555555555556e-05, |
|
"loss": 0.2715, |
|
"step": 513 |
|
}, |
|
{ |
|
"epoch": 0.17133333333333334, |
|
"grad_norm": 1.5897667407989502, |
|
"learning_rate": 4.603703703703704e-05, |
|
"loss": 0.4274, |
|
"step": 514 |
|
}, |
|
{ |
|
"epoch": 0.17166666666666666, |
|
"grad_norm": 1.4934463500976562, |
|
"learning_rate": 4.601851851851852e-05, |
|
"loss": 0.3477, |
|
"step": 515 |
|
}, |
|
{ |
|
"epoch": 0.172, |
|
"grad_norm": 1.6661343574523926, |
|
"learning_rate": 4.600000000000001e-05, |
|
"loss": 0.4138, |
|
"step": 516 |
|
}, |
|
{ |
|
"epoch": 0.17233333333333334, |
|
"grad_norm": 1.3750795125961304, |
|
"learning_rate": 4.598148148148148e-05, |
|
"loss": 0.3704, |
|
"step": 517 |
|
}, |
|
{ |
|
"epoch": 0.17266666666666666, |
|
"grad_norm": 1.6565532684326172, |
|
"learning_rate": 4.596296296296296e-05, |
|
"loss": 0.4498, |
|
"step": 518 |
|
}, |
|
{ |
|
"epoch": 0.173, |
|
"grad_norm": 5.795270919799805, |
|
"learning_rate": 4.594444444444444e-05, |
|
"loss": 0.4515, |
|
"step": 519 |
|
}, |
|
{ |
|
"epoch": 0.17333333333333334, |
|
"grad_norm": 17.75341033935547, |
|
"learning_rate": 4.592592592592593e-05, |
|
"loss": 0.3419, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 0.17366666666666666, |
|
"grad_norm": 1.2986958026885986, |
|
"learning_rate": 4.590740740740741e-05, |
|
"loss": 0.3258, |
|
"step": 521 |
|
}, |
|
{ |
|
"epoch": 0.174, |
|
"grad_norm": 1.4572504758834839, |
|
"learning_rate": 4.588888888888889e-05, |
|
"loss": 0.3619, |
|
"step": 522 |
|
}, |
|
{ |
|
"epoch": 0.17433333333333334, |
|
"grad_norm": 1.3477206230163574, |
|
"learning_rate": 4.587037037037037e-05, |
|
"loss": 0.3474, |
|
"step": 523 |
|
}, |
|
{ |
|
"epoch": 0.17466666666666666, |
|
"grad_norm": 1.4138680696487427, |
|
"learning_rate": 4.585185185185185e-05, |
|
"loss": 0.4011, |
|
"step": 524 |
|
}, |
|
{ |
|
"epoch": 0.175, |
|
"grad_norm": 1.817885398864746, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 0.3976, |
|
"step": 525 |
|
}, |
|
{ |
|
"epoch": 0.17533333333333334, |
|
"grad_norm": 2.031548023223877, |
|
"learning_rate": 4.5814814814814815e-05, |
|
"loss": 0.3649, |
|
"step": 526 |
|
}, |
|
{ |
|
"epoch": 0.17566666666666667, |
|
"grad_norm": 1.7162131071090698, |
|
"learning_rate": 4.5796296296296295e-05, |
|
"loss": 0.3296, |
|
"step": 527 |
|
}, |
|
{ |
|
"epoch": 0.176, |
|
"grad_norm": 1.916621446609497, |
|
"learning_rate": 4.577777777777778e-05, |
|
"loss": 0.3943, |
|
"step": 528 |
|
}, |
|
{ |
|
"epoch": 0.17633333333333334, |
|
"grad_norm": 1.6090394258499146, |
|
"learning_rate": 4.5759259259259264e-05, |
|
"loss": 0.3501, |
|
"step": 529 |
|
}, |
|
{ |
|
"epoch": 0.17666666666666667, |
|
"grad_norm": 1.6718857288360596, |
|
"learning_rate": 4.5740740740740745e-05, |
|
"loss": 0.4241, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 0.177, |
|
"grad_norm": 1.7291890382766724, |
|
"learning_rate": 4.572222222222222e-05, |
|
"loss": 0.4181, |
|
"step": 531 |
|
}, |
|
{ |
|
"epoch": 0.17733333333333334, |
|
"grad_norm": 1.506325125694275, |
|
"learning_rate": 4.5703703703703706e-05, |
|
"loss": 0.3724, |
|
"step": 532 |
|
}, |
|
{ |
|
"epoch": 0.17766666666666667, |
|
"grad_norm": 1.6740254163742065, |
|
"learning_rate": 4.568518518518519e-05, |
|
"loss": 0.4633, |
|
"step": 533 |
|
}, |
|
{ |
|
"epoch": 0.178, |
|
"grad_norm": 1.4528924226760864, |
|
"learning_rate": 4.566666666666667e-05, |
|
"loss": 0.3473, |
|
"step": 534 |
|
}, |
|
{ |
|
"epoch": 0.17833333333333334, |
|
"grad_norm": 1.6197060346603394, |
|
"learning_rate": 4.564814814814815e-05, |
|
"loss": 0.4072, |
|
"step": 535 |
|
}, |
|
{ |
|
"epoch": 0.17866666666666667, |
|
"grad_norm": 1.7965662479400635, |
|
"learning_rate": 4.5629629629629636e-05, |
|
"loss": 0.4327, |
|
"step": 536 |
|
}, |
|
{ |
|
"epoch": 0.179, |
|
"grad_norm": 1.403766393661499, |
|
"learning_rate": 4.561111111111112e-05, |
|
"loss": 0.3179, |
|
"step": 537 |
|
}, |
|
{ |
|
"epoch": 0.17933333333333334, |
|
"grad_norm": 1.4845155477523804, |
|
"learning_rate": 4.559259259259259e-05, |
|
"loss": 0.391, |
|
"step": 538 |
|
}, |
|
{ |
|
"epoch": 0.17966666666666667, |
|
"grad_norm": 1.5367820262908936, |
|
"learning_rate": 4.557407407407407e-05, |
|
"loss": 0.3359, |
|
"step": 539 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"grad_norm": 1.4138699769973755, |
|
"learning_rate": 4.555555555555556e-05, |
|
"loss": 0.3368, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 0.18033333333333335, |
|
"grad_norm": 1.6389492750167847, |
|
"learning_rate": 4.553703703703704e-05, |
|
"loss": 0.3956, |
|
"step": 541 |
|
}, |
|
{ |
|
"epoch": 0.18066666666666667, |
|
"grad_norm": 1.5073649883270264, |
|
"learning_rate": 4.551851851851852e-05, |
|
"loss": 0.4075, |
|
"step": 542 |
|
}, |
|
{ |
|
"epoch": 0.181, |
|
"grad_norm": 1.344222068786621, |
|
"learning_rate": 4.55e-05, |
|
"loss": 0.3281, |
|
"step": 543 |
|
}, |
|
{ |
|
"epoch": 0.18133333333333335, |
|
"grad_norm": 1.4959862232208252, |
|
"learning_rate": 4.548148148148149e-05, |
|
"loss": 0.3353, |
|
"step": 544 |
|
}, |
|
{ |
|
"epoch": 0.18166666666666667, |
|
"grad_norm": 1.5007504224777222, |
|
"learning_rate": 4.546296296296296e-05, |
|
"loss": 0.4133, |
|
"step": 545 |
|
}, |
|
{ |
|
"epoch": 0.182, |
|
"grad_norm": 1.6905388832092285, |
|
"learning_rate": 4.5444444444444444e-05, |
|
"loss": 0.4557, |
|
"step": 546 |
|
}, |
|
{ |
|
"epoch": 0.18233333333333332, |
|
"grad_norm": 1.3356764316558838, |
|
"learning_rate": 4.5425925925925925e-05, |
|
"loss": 0.3737, |
|
"step": 547 |
|
}, |
|
{ |
|
"epoch": 0.18266666666666667, |
|
"grad_norm": 1.8128896951675415, |
|
"learning_rate": 4.540740740740741e-05, |
|
"loss": 0.3902, |
|
"step": 548 |
|
}, |
|
{ |
|
"epoch": 0.183, |
|
"grad_norm": 1.5806947946548462, |
|
"learning_rate": 4.538888888888889e-05, |
|
"loss": 0.3861, |
|
"step": 549 |
|
}, |
|
{ |
|
"epoch": 0.18333333333333332, |
|
"grad_norm": 1.814087986946106, |
|
"learning_rate": 4.5370370370370374e-05, |
|
"loss": 0.4172, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 0.18366666666666667, |
|
"grad_norm": 1.5783967971801758, |
|
"learning_rate": 4.5351851851851854e-05, |
|
"loss": 0.4304, |
|
"step": 551 |
|
}, |
|
{ |
|
"epoch": 0.184, |
|
"grad_norm": 1.3484410047531128, |
|
"learning_rate": 4.5333333333333335e-05, |
|
"loss": 0.3362, |
|
"step": 552 |
|
}, |
|
{ |
|
"epoch": 0.18433333333333332, |
|
"grad_norm": 2.0969557762145996, |
|
"learning_rate": 4.5314814814814816e-05, |
|
"loss": 0.4142, |
|
"step": 553 |
|
}, |
|
{ |
|
"epoch": 0.18466666666666667, |
|
"grad_norm": 3.6122617721557617, |
|
"learning_rate": 4.52962962962963e-05, |
|
"loss": 0.2642, |
|
"step": 554 |
|
}, |
|
{ |
|
"epoch": 0.185, |
|
"grad_norm": 1.289080262184143, |
|
"learning_rate": 4.527777777777778e-05, |
|
"loss": 0.3149, |
|
"step": 555 |
|
}, |
|
{ |
|
"epoch": 0.18533333333333332, |
|
"grad_norm": 1.6373666524887085, |
|
"learning_rate": 4.5259259259259265e-05, |
|
"loss": 0.3945, |
|
"step": 556 |
|
}, |
|
{ |
|
"epoch": 0.18566666666666667, |
|
"grad_norm": 1.1834471225738525, |
|
"learning_rate": 4.5240740740740746e-05, |
|
"loss": 0.3104, |
|
"step": 557 |
|
}, |
|
{ |
|
"epoch": 0.186, |
|
"grad_norm": 1.290870189666748, |
|
"learning_rate": 4.522222222222223e-05, |
|
"loss": 0.371, |
|
"step": 558 |
|
}, |
|
{ |
|
"epoch": 0.18633333333333332, |
|
"grad_norm": 1.371110200881958, |
|
"learning_rate": 4.52037037037037e-05, |
|
"loss": 0.3973, |
|
"step": 559 |
|
}, |
|
{ |
|
"epoch": 0.18666666666666668, |
|
"grad_norm": 1.36427903175354, |
|
"learning_rate": 4.518518518518519e-05, |
|
"loss": 0.3147, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 0.187, |
|
"grad_norm": 1.3381069898605347, |
|
"learning_rate": 4.516666666666667e-05, |
|
"loss": 0.3474, |
|
"step": 561 |
|
}, |
|
{ |
|
"epoch": 0.18733333333333332, |
|
"grad_norm": 1.4656195640563965, |
|
"learning_rate": 4.514814814814815e-05, |
|
"loss": 0.4091, |
|
"step": 562 |
|
}, |
|
{ |
|
"epoch": 0.18766666666666668, |
|
"grad_norm": 1.6770439147949219, |
|
"learning_rate": 4.512962962962963e-05, |
|
"loss": 0.2991, |
|
"step": 563 |
|
}, |
|
{ |
|
"epoch": 0.188, |
|
"grad_norm": 1.3697926998138428, |
|
"learning_rate": 4.511111111111112e-05, |
|
"loss": 0.3267, |
|
"step": 564 |
|
}, |
|
{ |
|
"epoch": 0.18833333333333332, |
|
"grad_norm": 1.4271165132522583, |
|
"learning_rate": 4.50925925925926e-05, |
|
"loss": 0.3689, |
|
"step": 565 |
|
}, |
|
{ |
|
"epoch": 0.18866666666666668, |
|
"grad_norm": 1.3551369905471802, |
|
"learning_rate": 4.507407407407407e-05, |
|
"loss": 0.3604, |
|
"step": 566 |
|
}, |
|
{ |
|
"epoch": 0.189, |
|
"grad_norm": 1.5275707244873047, |
|
"learning_rate": 4.5055555555555554e-05, |
|
"loss": 0.3704, |
|
"step": 567 |
|
}, |
|
{ |
|
"epoch": 0.18933333333333333, |
|
"grad_norm": 1.5867068767547607, |
|
"learning_rate": 4.503703703703704e-05, |
|
"loss": 0.3803, |
|
"step": 568 |
|
}, |
|
{ |
|
"epoch": 0.18966666666666668, |
|
"grad_norm": 1.7391343116760254, |
|
"learning_rate": 4.501851851851852e-05, |
|
"loss": 0.4101, |
|
"step": 569 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"grad_norm": 1.7914539575576782, |
|
"learning_rate": 4.5e-05, |
|
"loss": 0.4465, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 0.19033333333333333, |
|
"grad_norm": 1.4277679920196533, |
|
"learning_rate": 4.4981481481481484e-05, |
|
"loss": 0.376, |
|
"step": 571 |
|
}, |
|
{ |
|
"epoch": 0.19066666666666668, |
|
"grad_norm": 1.35780668258667, |
|
"learning_rate": 4.496296296296297e-05, |
|
"loss": 0.3722, |
|
"step": 572 |
|
}, |
|
{ |
|
"epoch": 0.191, |
|
"grad_norm": 1.4040939807891846, |
|
"learning_rate": 4.4944444444444445e-05, |
|
"loss": 0.3845, |
|
"step": 573 |
|
}, |
|
{ |
|
"epoch": 0.19133333333333333, |
|
"grad_norm": 1.620442271232605, |
|
"learning_rate": 4.4925925925925926e-05, |
|
"loss": 0.394, |
|
"step": 574 |
|
}, |
|
{ |
|
"epoch": 0.19166666666666668, |
|
"grad_norm": 1.5137332677841187, |
|
"learning_rate": 4.490740740740741e-05, |
|
"loss": 0.4132, |
|
"step": 575 |
|
}, |
|
{ |
|
"epoch": 0.192, |
|
"grad_norm": 1.3737564086914062, |
|
"learning_rate": 4.4888888888888894e-05, |
|
"loss": 0.3041, |
|
"step": 576 |
|
}, |
|
{ |
|
"epoch": 0.19233333333333333, |
|
"grad_norm": 1.5032317638397217, |
|
"learning_rate": 4.4870370370370375e-05, |
|
"loss": 0.3448, |
|
"step": 577 |
|
}, |
|
{ |
|
"epoch": 0.19266666666666668, |
|
"grad_norm": 1.415264368057251, |
|
"learning_rate": 4.4851851851851856e-05, |
|
"loss": 0.3625, |
|
"step": 578 |
|
}, |
|
{ |
|
"epoch": 0.193, |
|
"grad_norm": 1.4844282865524292, |
|
"learning_rate": 4.483333333333333e-05, |
|
"loss": 0.3893, |
|
"step": 579 |
|
}, |
|
{ |
|
"epoch": 0.19333333333333333, |
|
"grad_norm": 1.3375792503356934, |
|
"learning_rate": 4.481481481481482e-05, |
|
"loss": 0.279, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 0.19366666666666665, |
|
"grad_norm": 1.514036774635315, |
|
"learning_rate": 4.47962962962963e-05, |
|
"loss": 0.3956, |
|
"step": 581 |
|
}, |
|
{ |
|
"epoch": 0.194, |
|
"grad_norm": 1.3582748174667358, |
|
"learning_rate": 4.477777777777778e-05, |
|
"loss": 0.3355, |
|
"step": 582 |
|
}, |
|
{ |
|
"epoch": 0.19433333333333333, |
|
"grad_norm": 1.6228889226913452, |
|
"learning_rate": 4.475925925925926e-05, |
|
"loss": 0.3537, |
|
"step": 583 |
|
}, |
|
{ |
|
"epoch": 0.19466666666666665, |
|
"grad_norm": 1.5080145597457886, |
|
"learning_rate": 4.474074074074075e-05, |
|
"loss": 0.4108, |
|
"step": 584 |
|
}, |
|
{ |
|
"epoch": 0.195, |
|
"grad_norm": 1.4736909866333008, |
|
"learning_rate": 4.472222222222223e-05, |
|
"loss": 0.3178, |
|
"step": 585 |
|
}, |
|
{ |
|
"epoch": 0.19533333333333333, |
|
"grad_norm": 1.4306914806365967, |
|
"learning_rate": 4.47037037037037e-05, |
|
"loss": 0.3304, |
|
"step": 586 |
|
}, |
|
{ |
|
"epoch": 0.19566666666666666, |
|
"grad_norm": 1.4883320331573486, |
|
"learning_rate": 4.468518518518518e-05, |
|
"loss": 0.4074, |
|
"step": 587 |
|
}, |
|
{ |
|
"epoch": 0.196, |
|
"grad_norm": 1.4108233451843262, |
|
"learning_rate": 4.466666666666667e-05, |
|
"loss": 0.3267, |
|
"step": 588 |
|
}, |
|
{ |
|
"epoch": 0.19633333333333333, |
|
"grad_norm": 2.0411906242370605, |
|
"learning_rate": 4.464814814814815e-05, |
|
"loss": 0.4153, |
|
"step": 589 |
|
}, |
|
{ |
|
"epoch": 0.19666666666666666, |
|
"grad_norm": 1.8355998992919922, |
|
"learning_rate": 4.462962962962963e-05, |
|
"loss": 0.3402, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 0.197, |
|
"grad_norm": 1.458619475364685, |
|
"learning_rate": 4.461111111111111e-05, |
|
"loss": 0.4166, |
|
"step": 591 |
|
}, |
|
{ |
|
"epoch": 0.19733333333333333, |
|
"grad_norm": 1.4741239547729492, |
|
"learning_rate": 4.4592592592592594e-05, |
|
"loss": 0.3389, |
|
"step": 592 |
|
}, |
|
{ |
|
"epoch": 0.19766666666666666, |
|
"grad_norm": 1.6767423152923584, |
|
"learning_rate": 4.4574074074074074e-05, |
|
"loss": 0.3909, |
|
"step": 593 |
|
}, |
|
{ |
|
"epoch": 0.198, |
|
"grad_norm": 1.665139079093933, |
|
"learning_rate": 4.4555555555555555e-05, |
|
"loss": 0.3458, |
|
"step": 594 |
|
}, |
|
{ |
|
"epoch": 0.19833333333333333, |
|
"grad_norm": 1.4744354486465454, |
|
"learning_rate": 4.4537037037037036e-05, |
|
"loss": 0.3492, |
|
"step": 595 |
|
}, |
|
{ |
|
"epoch": 0.19866666666666666, |
|
"grad_norm": 1.5642839670181274, |
|
"learning_rate": 4.4518518518518523e-05, |
|
"loss": 0.3446, |
|
"step": 596 |
|
}, |
|
{ |
|
"epoch": 0.199, |
|
"grad_norm": 1.3232685327529907, |
|
"learning_rate": 4.4500000000000004e-05, |
|
"loss": 0.3315, |
|
"step": 597 |
|
}, |
|
{ |
|
"epoch": 0.19933333333333333, |
|
"grad_norm": 1.5989969968795776, |
|
"learning_rate": 4.4481481481481485e-05, |
|
"loss": 0.328, |
|
"step": 598 |
|
}, |
|
{ |
|
"epoch": 0.19966666666666666, |
|
"grad_norm": 1.5295178890228271, |
|
"learning_rate": 4.4462962962962966e-05, |
|
"loss": 0.3927, |
|
"step": 599 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 1.6364021301269531, |
|
"learning_rate": 4.4444444444444447e-05, |
|
"loss": 0.4419, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.20033333333333334, |
|
"grad_norm": 1.3658100366592407, |
|
"learning_rate": 4.442592592592593e-05, |
|
"loss": 0.3703, |
|
"step": 601 |
|
}, |
|
{ |
|
"epoch": 0.20066666666666666, |
|
"grad_norm": 1.45023512840271, |
|
"learning_rate": 4.440740740740741e-05, |
|
"loss": 0.3768, |
|
"step": 602 |
|
}, |
|
{ |
|
"epoch": 0.201, |
|
"grad_norm": 1.24233877658844, |
|
"learning_rate": 4.438888888888889e-05, |
|
"loss": 0.2976, |
|
"step": 603 |
|
}, |
|
{ |
|
"epoch": 0.20133333333333334, |
|
"grad_norm": 1.4358621835708618, |
|
"learning_rate": 4.4370370370370376e-05, |
|
"loss": 0.3407, |
|
"step": 604 |
|
}, |
|
{ |
|
"epoch": 0.20166666666666666, |
|
"grad_norm": 1.2155948877334595, |
|
"learning_rate": 4.435185185185186e-05, |
|
"loss": 0.3248, |
|
"step": 605 |
|
}, |
|
{ |
|
"epoch": 0.202, |
|
"grad_norm": 1.52995765209198, |
|
"learning_rate": 4.433333333333334e-05, |
|
"loss": 0.383, |
|
"step": 606 |
|
}, |
|
{ |
|
"epoch": 0.20233333333333334, |
|
"grad_norm": 1.781554937362671, |
|
"learning_rate": 4.431481481481481e-05, |
|
"loss": 0.4049, |
|
"step": 607 |
|
}, |
|
{ |
|
"epoch": 0.20266666666666666, |
|
"grad_norm": 1.6566193103790283, |
|
"learning_rate": 4.42962962962963e-05, |
|
"loss": 0.4091, |
|
"step": 608 |
|
}, |
|
{ |
|
"epoch": 0.203, |
|
"grad_norm": 1.609633445739746, |
|
"learning_rate": 4.427777777777778e-05, |
|
"loss": 0.3276, |
|
"step": 609 |
|
}, |
|
{ |
|
"epoch": 0.20333333333333334, |
|
"grad_norm": 2.1290884017944336, |
|
"learning_rate": 4.425925925925926e-05, |
|
"loss": 0.3703, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 0.20366666666666666, |
|
"grad_norm": 1.4883259534835815, |
|
"learning_rate": 4.424074074074074e-05, |
|
"loss": 0.3417, |
|
"step": 611 |
|
}, |
|
{ |
|
"epoch": 0.204, |
|
"grad_norm": 1.6269731521606445, |
|
"learning_rate": 4.422222222222222e-05, |
|
"loss": 0.4931, |
|
"step": 612 |
|
}, |
|
{ |
|
"epoch": 0.20433333333333334, |
|
"grad_norm": 1.2305165529251099, |
|
"learning_rate": 4.420370370370371e-05, |
|
"loss": 0.3454, |
|
"step": 613 |
|
}, |
|
{ |
|
"epoch": 0.20466666666666666, |
|
"grad_norm": 1.3280975818634033, |
|
"learning_rate": 4.4185185185185184e-05, |
|
"loss": 0.3098, |
|
"step": 614 |
|
}, |
|
{ |
|
"epoch": 0.205, |
|
"grad_norm": 1.6180787086486816, |
|
"learning_rate": 4.4166666666666665e-05, |
|
"loss": 0.3854, |
|
"step": 615 |
|
}, |
|
{ |
|
"epoch": 0.20533333333333334, |
|
"grad_norm": 1.2871187925338745, |
|
"learning_rate": 4.414814814814815e-05, |
|
"loss": 0.3057, |
|
"step": 616 |
|
}, |
|
{ |
|
"epoch": 0.20566666666666666, |
|
"grad_norm": 1.5202758312225342, |
|
"learning_rate": 4.4129629629629633e-05, |
|
"loss": 0.3825, |
|
"step": 617 |
|
}, |
|
{ |
|
"epoch": 0.206, |
|
"grad_norm": 1.2970737218856812, |
|
"learning_rate": 4.4111111111111114e-05, |
|
"loss": 0.2642, |
|
"step": 618 |
|
}, |
|
{ |
|
"epoch": 0.20633333333333334, |
|
"grad_norm": 1.381256341934204, |
|
"learning_rate": 4.4092592592592595e-05, |
|
"loss": 0.3454, |
|
"step": 619 |
|
}, |
|
{ |
|
"epoch": 0.20666666666666667, |
|
"grad_norm": 1.5311311483383179, |
|
"learning_rate": 4.4074074074074076e-05, |
|
"loss": 0.3699, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 0.207, |
|
"grad_norm": 1.3776994943618774, |
|
"learning_rate": 4.4055555555555557e-05, |
|
"loss": 0.3086, |
|
"step": 621 |
|
}, |
|
{ |
|
"epoch": 0.20733333333333334, |
|
"grad_norm": 1.3250863552093506, |
|
"learning_rate": 4.403703703703704e-05, |
|
"loss": 0.3627, |
|
"step": 622 |
|
}, |
|
{ |
|
"epoch": 0.20766666666666667, |
|
"grad_norm": 1.248021125793457, |
|
"learning_rate": 4.401851851851852e-05, |
|
"loss": 0.343, |
|
"step": 623 |
|
}, |
|
{ |
|
"epoch": 0.208, |
|
"grad_norm": 1.4723520278930664, |
|
"learning_rate": 4.4000000000000006e-05, |
|
"loss": 0.336, |
|
"step": 624 |
|
}, |
|
{ |
|
"epoch": 0.20833333333333334, |
|
"grad_norm": 1.3077497482299805, |
|
"learning_rate": 4.3981481481481486e-05, |
|
"loss": 0.3276, |
|
"step": 625 |
|
}, |
|
{ |
|
"epoch": 0.20866666666666667, |
|
"grad_norm": 1.5073587894439697, |
|
"learning_rate": 4.396296296296297e-05, |
|
"loss": 0.3799, |
|
"step": 626 |
|
}, |
|
{ |
|
"epoch": 0.209, |
|
"grad_norm": 1.3228164911270142, |
|
"learning_rate": 4.394444444444445e-05, |
|
"loss": 0.3856, |
|
"step": 627 |
|
}, |
|
{ |
|
"epoch": 0.20933333333333334, |
|
"grad_norm": 1.4944725036621094, |
|
"learning_rate": 4.392592592592593e-05, |
|
"loss": 0.419, |
|
"step": 628 |
|
}, |
|
{ |
|
"epoch": 0.20966666666666667, |
|
"grad_norm": 1.1977301836013794, |
|
"learning_rate": 4.390740740740741e-05, |
|
"loss": 0.2991, |
|
"step": 629 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"grad_norm": 1.3055118322372437, |
|
"learning_rate": 4.388888888888889e-05, |
|
"loss": 0.3119, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 0.21033333333333334, |
|
"grad_norm": 1.2189877033233643, |
|
"learning_rate": 4.387037037037037e-05, |
|
"loss": 0.2759, |
|
"step": 631 |
|
}, |
|
{ |
|
"epoch": 0.21066666666666667, |
|
"grad_norm": 1.5441529750823975, |
|
"learning_rate": 4.385185185185185e-05, |
|
"loss": 0.4359, |
|
"step": 632 |
|
}, |
|
{ |
|
"epoch": 0.211, |
|
"grad_norm": 1.2876906394958496, |
|
"learning_rate": 4.383333333333334e-05, |
|
"loss": 0.3284, |
|
"step": 633 |
|
}, |
|
{ |
|
"epoch": 0.21133333333333335, |
|
"grad_norm": 1.434372067451477, |
|
"learning_rate": 4.381481481481482e-05, |
|
"loss": 0.3375, |
|
"step": 634 |
|
}, |
|
{ |
|
"epoch": 0.21166666666666667, |
|
"grad_norm": 1.7254409790039062, |
|
"learning_rate": 4.3796296296296294e-05, |
|
"loss": 0.3896, |
|
"step": 635 |
|
}, |
|
{ |
|
"epoch": 0.212, |
|
"grad_norm": 1.5128728151321411, |
|
"learning_rate": 4.377777777777778e-05, |
|
"loss": 0.3626, |
|
"step": 636 |
|
}, |
|
{ |
|
"epoch": 0.21233333333333335, |
|
"grad_norm": 1.5368988513946533, |
|
"learning_rate": 4.375925925925926e-05, |
|
"loss": 0.4239, |
|
"step": 637 |
|
}, |
|
{ |
|
"epoch": 0.21266666666666667, |
|
"grad_norm": 1.424720048904419, |
|
"learning_rate": 4.374074074074074e-05, |
|
"loss": 0.3389, |
|
"step": 638 |
|
}, |
|
{ |
|
"epoch": 0.213, |
|
"grad_norm": 1.552229881286621, |
|
"learning_rate": 4.3722222222222224e-05, |
|
"loss": 0.3948, |
|
"step": 639 |
|
}, |
|
{ |
|
"epoch": 0.21333333333333335, |
|
"grad_norm": 1.3225212097167969, |
|
"learning_rate": 4.3703703703703705e-05, |
|
"loss": 0.3229, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 0.21366666666666667, |
|
"grad_norm": 1.5340272188186646, |
|
"learning_rate": 4.3685185185185186e-05, |
|
"loss": 0.353, |
|
"step": 641 |
|
}, |
|
{ |
|
"epoch": 0.214, |
|
"grad_norm": 1.5016579627990723, |
|
"learning_rate": 4.3666666666666666e-05, |
|
"loss": 0.3796, |
|
"step": 642 |
|
}, |
|
{ |
|
"epoch": 0.21433333333333332, |
|
"grad_norm": 1.4141838550567627, |
|
"learning_rate": 4.364814814814815e-05, |
|
"loss": 0.3579, |
|
"step": 643 |
|
}, |
|
{ |
|
"epoch": 0.21466666666666667, |
|
"grad_norm": 1.5683951377868652, |
|
"learning_rate": 4.3629629629629635e-05, |
|
"loss": 0.3968, |
|
"step": 644 |
|
}, |
|
{ |
|
"epoch": 0.215, |
|
"grad_norm": 1.6390215158462524, |
|
"learning_rate": 4.3611111111111116e-05, |
|
"loss": 0.3948, |
|
"step": 645 |
|
}, |
|
{ |
|
"epoch": 0.21533333333333332, |
|
"grad_norm": 1.4215831756591797, |
|
"learning_rate": 4.3592592592592596e-05, |
|
"loss": 0.3268, |
|
"step": 646 |
|
}, |
|
{ |
|
"epoch": 0.21566666666666667, |
|
"grad_norm": 1.5521069765090942, |
|
"learning_rate": 4.357407407407408e-05, |
|
"loss": 0.37, |
|
"step": 647 |
|
}, |
|
{ |
|
"epoch": 0.216, |
|
"grad_norm": 1.6645965576171875, |
|
"learning_rate": 4.355555555555556e-05, |
|
"loss": 0.3604, |
|
"step": 648 |
|
}, |
|
{ |
|
"epoch": 0.21633333333333332, |
|
"grad_norm": 2.1203622817993164, |
|
"learning_rate": 4.353703703703704e-05, |
|
"loss": 0.2886, |
|
"step": 649 |
|
}, |
|
{ |
|
"epoch": 0.21666666666666667, |
|
"grad_norm": 1.6731735467910767, |
|
"learning_rate": 4.351851851851852e-05, |
|
"loss": 0.4659, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 0.217, |
|
"grad_norm": 1.7265139818191528, |
|
"learning_rate": 4.35e-05, |
|
"loss": 0.4333, |
|
"step": 651 |
|
}, |
|
{ |
|
"epoch": 0.21733333333333332, |
|
"grad_norm": 1.688616156578064, |
|
"learning_rate": 4.348148148148148e-05, |
|
"loss": 0.4951, |
|
"step": 652 |
|
}, |
|
{ |
|
"epoch": 0.21766666666666667, |
|
"grad_norm": 1.463356375694275, |
|
"learning_rate": 4.346296296296297e-05, |
|
"loss": 0.4063, |
|
"step": 653 |
|
}, |
|
{ |
|
"epoch": 0.218, |
|
"grad_norm": 1.7236669063568115, |
|
"learning_rate": 4.344444444444445e-05, |
|
"loss": 0.361, |
|
"step": 654 |
|
}, |
|
{ |
|
"epoch": 0.21833333333333332, |
|
"grad_norm": 1.686489462852478, |
|
"learning_rate": 4.342592592592592e-05, |
|
"loss": 0.3861, |
|
"step": 655 |
|
}, |
|
{ |
|
"epoch": 0.21866666666666668, |
|
"grad_norm": 1.5238269567489624, |
|
"learning_rate": 4.340740740740741e-05, |
|
"loss": 0.4135, |
|
"step": 656 |
|
}, |
|
{ |
|
"epoch": 0.219, |
|
"grad_norm": 1.6874879598617554, |
|
"learning_rate": 4.338888888888889e-05, |
|
"loss": 0.3647, |
|
"step": 657 |
|
}, |
|
{ |
|
"epoch": 0.21933333333333332, |
|
"grad_norm": 2.1948039531707764, |
|
"learning_rate": 4.337037037037037e-05, |
|
"loss": 0.5016, |
|
"step": 658 |
|
}, |
|
{ |
|
"epoch": 0.21966666666666668, |
|
"grad_norm": 1.5895353555679321, |
|
"learning_rate": 4.335185185185185e-05, |
|
"loss": 0.446, |
|
"step": 659 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"grad_norm": 1.27193284034729, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 0.3792, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 0.22033333333333333, |
|
"grad_norm": 1.3627662658691406, |
|
"learning_rate": 4.331481481481482e-05, |
|
"loss": 0.3545, |
|
"step": 661 |
|
}, |
|
{ |
|
"epoch": 0.22066666666666668, |
|
"grad_norm": 1.4695639610290527, |
|
"learning_rate": 4.3296296296296296e-05, |
|
"loss": 0.3532, |
|
"step": 662 |
|
}, |
|
{ |
|
"epoch": 0.221, |
|
"grad_norm": 1.4878876209259033, |
|
"learning_rate": 4.3277777777777776e-05, |
|
"loss": 0.3545, |
|
"step": 663 |
|
}, |
|
{ |
|
"epoch": 0.22133333333333333, |
|
"grad_norm": 3.1272101402282715, |
|
"learning_rate": 4.325925925925926e-05, |
|
"loss": 0.4299, |
|
"step": 664 |
|
}, |
|
{ |
|
"epoch": 0.22166666666666668, |
|
"grad_norm": 1.2898375988006592, |
|
"learning_rate": 4.3240740740740745e-05, |
|
"loss": 0.3351, |
|
"step": 665 |
|
}, |
|
{ |
|
"epoch": 0.222, |
|
"grad_norm": 1.2541146278381348, |
|
"learning_rate": 4.3222222222222226e-05, |
|
"loss": 0.3142, |
|
"step": 666 |
|
}, |
|
{ |
|
"epoch": 0.22233333333333333, |
|
"grad_norm": 1.3727818727493286, |
|
"learning_rate": 4.3203703703703706e-05, |
|
"loss": 0.3085, |
|
"step": 667 |
|
}, |
|
{ |
|
"epoch": 0.22266666666666668, |
|
"grad_norm": 1.27913236618042, |
|
"learning_rate": 4.318518518518519e-05, |
|
"loss": 0.309, |
|
"step": 668 |
|
}, |
|
{ |
|
"epoch": 0.223, |
|
"grad_norm": 2.137416124343872, |
|
"learning_rate": 4.316666666666667e-05, |
|
"loss": 0.4128, |
|
"step": 669 |
|
}, |
|
{ |
|
"epoch": 0.22333333333333333, |
|
"grad_norm": 1.9899588823318481, |
|
"learning_rate": 4.314814814814815e-05, |
|
"loss": 0.4631, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 0.22366666666666668, |
|
"grad_norm": 1.641781210899353, |
|
"learning_rate": 4.312962962962963e-05, |
|
"loss": 0.3815, |
|
"step": 671 |
|
}, |
|
{ |
|
"epoch": 0.224, |
|
"grad_norm": 1.4118577241897583, |
|
"learning_rate": 4.311111111111111e-05, |
|
"loss": 0.3724, |
|
"step": 672 |
|
}, |
|
{ |
|
"epoch": 0.22433333333333333, |
|
"grad_norm": 1.9290391206741333, |
|
"learning_rate": 4.30925925925926e-05, |
|
"loss": 0.389, |
|
"step": 673 |
|
}, |
|
{ |
|
"epoch": 0.22466666666666665, |
|
"grad_norm": 1.6977159976959229, |
|
"learning_rate": 4.307407407407408e-05, |
|
"loss": 0.3942, |
|
"step": 674 |
|
}, |
|
{ |
|
"epoch": 0.225, |
|
"grad_norm": 1.6948448419570923, |
|
"learning_rate": 4.305555555555556e-05, |
|
"loss": 0.4398, |
|
"step": 675 |
|
}, |
|
{ |
|
"epoch": 0.22533333333333333, |
|
"grad_norm": 1.4764955043792725, |
|
"learning_rate": 4.303703703703704e-05, |
|
"loss": 0.355, |
|
"step": 676 |
|
}, |
|
{ |
|
"epoch": 0.22566666666666665, |
|
"grad_norm": 1.4608086347579956, |
|
"learning_rate": 4.301851851851852e-05, |
|
"loss": 0.3243, |
|
"step": 677 |
|
}, |
|
{ |
|
"epoch": 0.226, |
|
"grad_norm": 1.37698495388031, |
|
"learning_rate": 4.3e-05, |
|
"loss": 0.3181, |
|
"step": 678 |
|
}, |
|
{ |
|
"epoch": 0.22633333333333333, |
|
"grad_norm": 1.5875524282455444, |
|
"learning_rate": 4.298148148148148e-05, |
|
"loss": 0.3883, |
|
"step": 679 |
|
}, |
|
{ |
|
"epoch": 0.22666666666666666, |
|
"grad_norm": 1.4747446775436401, |
|
"learning_rate": 4.296296296296296e-05, |
|
"loss": 0.3369, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 0.227, |
|
"grad_norm": 1.5260282754898071, |
|
"learning_rate": 4.294444444444445e-05, |
|
"loss": 0.3964, |
|
"step": 681 |
|
}, |
|
{ |
|
"epoch": 0.22733333333333333, |
|
"grad_norm": 1.233856201171875, |
|
"learning_rate": 4.292592592592593e-05, |
|
"loss": 0.3045, |
|
"step": 682 |
|
}, |
|
{ |
|
"epoch": 0.22766666666666666, |
|
"grad_norm": 1.457231044769287, |
|
"learning_rate": 4.2907407407407406e-05, |
|
"loss": 0.3105, |
|
"step": 683 |
|
}, |
|
{ |
|
"epoch": 0.228, |
|
"grad_norm": 1.7392462491989136, |
|
"learning_rate": 4.2888888888888886e-05, |
|
"loss": 0.4476, |
|
"step": 684 |
|
}, |
|
{ |
|
"epoch": 0.22833333333333333, |
|
"grad_norm": 1.24375581741333, |
|
"learning_rate": 4.2870370370370374e-05, |
|
"loss": 0.299, |
|
"step": 685 |
|
}, |
|
{ |
|
"epoch": 0.22866666666666666, |
|
"grad_norm": 1.4087038040161133, |
|
"learning_rate": 4.2851851851851855e-05, |
|
"loss": 0.3275, |
|
"step": 686 |
|
}, |
|
{ |
|
"epoch": 0.229, |
|
"grad_norm": 1.363183617591858, |
|
"learning_rate": 4.2833333333333335e-05, |
|
"loss": 0.3409, |
|
"step": 687 |
|
}, |
|
{ |
|
"epoch": 0.22933333333333333, |
|
"grad_norm": 1.5464953184127808, |
|
"learning_rate": 4.2814814814814816e-05, |
|
"loss": 0.4566, |
|
"step": 688 |
|
}, |
|
{ |
|
"epoch": 0.22966666666666666, |
|
"grad_norm": 1.367520809173584, |
|
"learning_rate": 4.2796296296296304e-05, |
|
"loss": 0.3163, |
|
"step": 689 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"grad_norm": 1.3377315998077393, |
|
"learning_rate": 4.277777777777778e-05, |
|
"loss": 0.3323, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 0.23033333333333333, |
|
"grad_norm": 1.4911507368087769, |
|
"learning_rate": 4.275925925925926e-05, |
|
"loss": 0.4372, |
|
"step": 691 |
|
}, |
|
{ |
|
"epoch": 0.23066666666666666, |
|
"grad_norm": 1.4127525091171265, |
|
"learning_rate": 4.274074074074074e-05, |
|
"loss": 0.3921, |
|
"step": 692 |
|
}, |
|
{ |
|
"epoch": 0.231, |
|
"grad_norm": 1.4434276819229126, |
|
"learning_rate": 4.272222222222223e-05, |
|
"loss": 0.3533, |
|
"step": 693 |
|
}, |
|
{ |
|
"epoch": 0.23133333333333334, |
|
"grad_norm": 1.6668140888214111, |
|
"learning_rate": 4.270370370370371e-05, |
|
"loss": 0.415, |
|
"step": 694 |
|
}, |
|
{ |
|
"epoch": 0.23166666666666666, |
|
"grad_norm": 1.5912481546401978, |
|
"learning_rate": 4.268518518518519e-05, |
|
"loss": 0.4325, |
|
"step": 695 |
|
}, |
|
{ |
|
"epoch": 0.232, |
|
"grad_norm": 1.3702155351638794, |
|
"learning_rate": 4.266666666666667e-05, |
|
"loss": 0.3341, |
|
"step": 696 |
|
}, |
|
{ |
|
"epoch": 0.23233333333333334, |
|
"grad_norm": 1.495927333831787, |
|
"learning_rate": 4.264814814814815e-05, |
|
"loss": 0.3677, |
|
"step": 697 |
|
}, |
|
{ |
|
"epoch": 0.23266666666666666, |
|
"grad_norm": 1.3089903593063354, |
|
"learning_rate": 4.262962962962963e-05, |
|
"loss": 0.3699, |
|
"step": 698 |
|
}, |
|
{ |
|
"epoch": 0.233, |
|
"grad_norm": 1.5037627220153809, |
|
"learning_rate": 4.261111111111111e-05, |
|
"loss": 0.366, |
|
"step": 699 |
|
}, |
|
{ |
|
"epoch": 0.23333333333333334, |
|
"grad_norm": 1.8529783487319946, |
|
"learning_rate": 4.259259259259259e-05, |
|
"loss": 0.383, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.23366666666666666, |
|
"grad_norm": 1.354643702507019, |
|
"learning_rate": 4.257407407407408e-05, |
|
"loss": 0.327, |
|
"step": 701 |
|
}, |
|
{ |
|
"epoch": 0.234, |
|
"grad_norm": 1.459773063659668, |
|
"learning_rate": 4.255555555555556e-05, |
|
"loss": 0.4143, |
|
"step": 702 |
|
}, |
|
{ |
|
"epoch": 0.23433333333333334, |
|
"grad_norm": 1.311944603919983, |
|
"learning_rate": 4.2537037037037035e-05, |
|
"loss": 0.3305, |
|
"step": 703 |
|
}, |
|
{ |
|
"epoch": 0.23466666666666666, |
|
"grad_norm": 1.5787670612335205, |
|
"learning_rate": 4.2518518518518515e-05, |
|
"loss": 0.3847, |
|
"step": 704 |
|
}, |
|
{ |
|
"epoch": 0.235, |
|
"grad_norm": 1.3665950298309326, |
|
"learning_rate": 4.25e-05, |
|
"loss": 0.3096, |
|
"step": 705 |
|
}, |
|
{ |
|
"epoch": 0.23533333333333334, |
|
"grad_norm": 1.4410815238952637, |
|
"learning_rate": 4.2481481481481484e-05, |
|
"loss": 0.3479, |
|
"step": 706 |
|
}, |
|
{ |
|
"epoch": 0.23566666666666666, |
|
"grad_norm": 1.341604471206665, |
|
"learning_rate": 4.2462962962962965e-05, |
|
"loss": 0.3382, |
|
"step": 707 |
|
}, |
|
{ |
|
"epoch": 0.236, |
|
"grad_norm": 1.330906867980957, |
|
"learning_rate": 4.2444444444444445e-05, |
|
"loss": 0.3712, |
|
"step": 708 |
|
}, |
|
{ |
|
"epoch": 0.23633333333333334, |
|
"grad_norm": 1.7482727766036987, |
|
"learning_rate": 4.242592592592593e-05, |
|
"loss": 0.3968, |
|
"step": 709 |
|
}, |
|
{ |
|
"epoch": 0.23666666666666666, |
|
"grad_norm": 1.3532570600509644, |
|
"learning_rate": 4.240740740740741e-05, |
|
"loss": 0.3501, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 0.237, |
|
"grad_norm": 1.3667083978652954, |
|
"learning_rate": 4.238888888888889e-05, |
|
"loss": 0.3082, |
|
"step": 711 |
|
}, |
|
{ |
|
"epoch": 0.23733333333333334, |
|
"grad_norm": 1.3330355882644653, |
|
"learning_rate": 4.237037037037037e-05, |
|
"loss": 0.3146, |
|
"step": 712 |
|
}, |
|
{ |
|
"epoch": 0.23766666666666666, |
|
"grad_norm": 1.444445013999939, |
|
"learning_rate": 4.2351851851851856e-05, |
|
"loss": 0.3238, |
|
"step": 713 |
|
}, |
|
{ |
|
"epoch": 0.238, |
|
"grad_norm": 1.5447372198104858, |
|
"learning_rate": 4.233333333333334e-05, |
|
"loss": 0.3801, |
|
"step": 714 |
|
}, |
|
{ |
|
"epoch": 0.23833333333333334, |
|
"grad_norm": 5.3352766036987305, |
|
"learning_rate": 4.231481481481482e-05, |
|
"loss": 0.3106, |
|
"step": 715 |
|
}, |
|
{ |
|
"epoch": 0.23866666666666667, |
|
"grad_norm": 1.4652068614959717, |
|
"learning_rate": 4.22962962962963e-05, |
|
"loss": 0.4253, |
|
"step": 716 |
|
}, |
|
{ |
|
"epoch": 0.239, |
|
"grad_norm": 1.372683048248291, |
|
"learning_rate": 4.227777777777778e-05, |
|
"loss": 0.341, |
|
"step": 717 |
|
}, |
|
{ |
|
"epoch": 0.23933333333333334, |
|
"grad_norm": 1.4031468629837036, |
|
"learning_rate": 4.225925925925926e-05, |
|
"loss": 0.3569, |
|
"step": 718 |
|
}, |
|
{ |
|
"epoch": 0.23966666666666667, |
|
"grad_norm": 1.560187578201294, |
|
"learning_rate": 4.224074074074074e-05, |
|
"loss": 0.4454, |
|
"step": 719 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"grad_norm": 1.2413548231124878, |
|
"learning_rate": 4.222222222222222e-05, |
|
"loss": 0.2795, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 0.24033333333333334, |
|
"grad_norm": 1.4622594118118286, |
|
"learning_rate": 4.220370370370371e-05, |
|
"loss": 0.3461, |
|
"step": 721 |
|
}, |
|
{ |
|
"epoch": 0.24066666666666667, |
|
"grad_norm": 1.2350109815597534, |
|
"learning_rate": 4.218518518518519e-05, |
|
"loss": 0.2967, |
|
"step": 722 |
|
}, |
|
{ |
|
"epoch": 0.241, |
|
"grad_norm": 1.4473148584365845, |
|
"learning_rate": 4.216666666666667e-05, |
|
"loss": 0.3649, |
|
"step": 723 |
|
}, |
|
{ |
|
"epoch": 0.24133333333333334, |
|
"grad_norm": 1.241361141204834, |
|
"learning_rate": 4.2148148148148145e-05, |
|
"loss": 0.3009, |
|
"step": 724 |
|
}, |
|
{ |
|
"epoch": 0.24166666666666667, |
|
"grad_norm": 1.592885971069336, |
|
"learning_rate": 4.212962962962963e-05, |
|
"loss": 0.5231, |
|
"step": 725 |
|
}, |
|
{ |
|
"epoch": 0.242, |
|
"grad_norm": 1.7029653787612915, |
|
"learning_rate": 4.211111111111111e-05, |
|
"loss": 0.4607, |
|
"step": 726 |
|
}, |
|
{ |
|
"epoch": 0.24233333333333335, |
|
"grad_norm": 1.3143640756607056, |
|
"learning_rate": 4.2092592592592594e-05, |
|
"loss": 0.3629, |
|
"step": 727 |
|
}, |
|
{ |
|
"epoch": 0.24266666666666667, |
|
"grad_norm": 1.3931041955947876, |
|
"learning_rate": 4.2074074074074075e-05, |
|
"loss": 0.3732, |
|
"step": 728 |
|
}, |
|
{ |
|
"epoch": 0.243, |
|
"grad_norm": 1.9713157415390015, |
|
"learning_rate": 4.205555555555556e-05, |
|
"loss": 0.3102, |
|
"step": 729 |
|
}, |
|
{ |
|
"epoch": 0.24333333333333335, |
|
"grad_norm": 1.3356719017028809, |
|
"learning_rate": 4.203703703703704e-05, |
|
"loss": 0.3662, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 0.24366666666666667, |
|
"grad_norm": 1.1621766090393066, |
|
"learning_rate": 4.201851851851852e-05, |
|
"loss": 0.2984, |
|
"step": 731 |
|
}, |
|
{ |
|
"epoch": 0.244, |
|
"grad_norm": 1.4896650314331055, |
|
"learning_rate": 4.2e-05, |
|
"loss": 0.3934, |
|
"step": 732 |
|
}, |
|
{ |
|
"epoch": 0.24433333333333335, |
|
"grad_norm": 1.5026004314422607, |
|
"learning_rate": 4.1981481481481485e-05, |
|
"loss": 0.3615, |
|
"step": 733 |
|
}, |
|
{ |
|
"epoch": 0.24466666666666667, |
|
"grad_norm": 1.551168441772461, |
|
"learning_rate": 4.1962962962962966e-05, |
|
"loss": 0.4221, |
|
"step": 734 |
|
}, |
|
{ |
|
"epoch": 0.245, |
|
"grad_norm": 1.2471182346343994, |
|
"learning_rate": 4.194444444444445e-05, |
|
"loss": 0.3377, |
|
"step": 735 |
|
}, |
|
{ |
|
"epoch": 0.24533333333333332, |
|
"grad_norm": 1.4817787408828735, |
|
"learning_rate": 4.192592592592593e-05, |
|
"loss": 0.4391, |
|
"step": 736 |
|
}, |
|
{ |
|
"epoch": 0.24566666666666667, |
|
"grad_norm": 2.5760746002197266, |
|
"learning_rate": 4.1907407407407415e-05, |
|
"loss": 0.3658, |
|
"step": 737 |
|
}, |
|
{ |
|
"epoch": 0.246, |
|
"grad_norm": 1.2824112176895142, |
|
"learning_rate": 4.188888888888889e-05, |
|
"loss": 0.3386, |
|
"step": 738 |
|
}, |
|
{ |
|
"epoch": 0.24633333333333332, |
|
"grad_norm": 1.3398665189743042, |
|
"learning_rate": 4.187037037037037e-05, |
|
"loss": 0.3355, |
|
"step": 739 |
|
}, |
|
{ |
|
"epoch": 0.24666666666666667, |
|
"grad_norm": 2.7086310386657715, |
|
"learning_rate": 4.185185185185185e-05, |
|
"loss": 0.3924, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 0.247, |
|
"grad_norm": 1.4166991710662842, |
|
"learning_rate": 4.183333333333334e-05, |
|
"loss": 0.3762, |
|
"step": 741 |
|
}, |
|
{ |
|
"epoch": 0.24733333333333332, |
|
"grad_norm": 1.431833028793335, |
|
"learning_rate": 4.181481481481482e-05, |
|
"loss": 0.3361, |
|
"step": 742 |
|
}, |
|
{ |
|
"epoch": 0.24766666666666667, |
|
"grad_norm": 1.174967885017395, |
|
"learning_rate": 4.17962962962963e-05, |
|
"loss": 0.3243, |
|
"step": 743 |
|
}, |
|
{ |
|
"epoch": 0.248, |
|
"grad_norm": 1.613420844078064, |
|
"learning_rate": 4.177777777777778e-05, |
|
"loss": 0.408, |
|
"step": 744 |
|
}, |
|
{ |
|
"epoch": 0.24833333333333332, |
|
"grad_norm": 1.5392343997955322, |
|
"learning_rate": 4.175925925925926e-05, |
|
"loss": 0.3402, |
|
"step": 745 |
|
}, |
|
{ |
|
"epoch": 0.24866666666666667, |
|
"grad_norm": 1.2540733814239502, |
|
"learning_rate": 4.174074074074074e-05, |
|
"loss": 0.3011, |
|
"step": 746 |
|
}, |
|
{ |
|
"epoch": 0.249, |
|
"grad_norm": 1.4702844619750977, |
|
"learning_rate": 4.172222222222222e-05, |
|
"loss": 0.3892, |
|
"step": 747 |
|
}, |
|
{ |
|
"epoch": 0.24933333333333332, |
|
"grad_norm": 1.2698496580123901, |
|
"learning_rate": 4.1703703703703704e-05, |
|
"loss": 0.3453, |
|
"step": 748 |
|
}, |
|
{ |
|
"epoch": 0.24966666666666668, |
|
"grad_norm": 1.626663327217102, |
|
"learning_rate": 4.168518518518519e-05, |
|
"loss": 0.4104, |
|
"step": 749 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"grad_norm": 1.4430832862854004, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.36, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 0.25033333333333335, |
|
"grad_norm": 1.447880506515503, |
|
"learning_rate": 4.164814814814815e-05, |
|
"loss": 0.3233, |
|
"step": 751 |
|
}, |
|
{ |
|
"epoch": 0.25066666666666665, |
|
"grad_norm": 1.1898837089538574, |
|
"learning_rate": 4.162962962962963e-05, |
|
"loss": 0.2602, |
|
"step": 752 |
|
}, |
|
{ |
|
"epoch": 0.251, |
|
"grad_norm": 1.1591498851776123, |
|
"learning_rate": 4.1611111111111114e-05, |
|
"loss": 0.281, |
|
"step": 753 |
|
}, |
|
{ |
|
"epoch": 0.25133333333333335, |
|
"grad_norm": 1.4322726726531982, |
|
"learning_rate": 4.1592592592592595e-05, |
|
"loss": 0.3518, |
|
"step": 754 |
|
}, |
|
{ |
|
"epoch": 0.25166666666666665, |
|
"grad_norm": 1.4136521816253662, |
|
"learning_rate": 4.1574074074074076e-05, |
|
"loss": 0.315, |
|
"step": 755 |
|
}, |
|
{ |
|
"epoch": 0.252, |
|
"grad_norm": 1.5453389883041382, |
|
"learning_rate": 4.155555555555556e-05, |
|
"loss": 0.3868, |
|
"step": 756 |
|
}, |
|
{ |
|
"epoch": 0.25233333333333335, |
|
"grad_norm": 1.3190627098083496, |
|
"learning_rate": 4.1537037037037044e-05, |
|
"loss": 0.3316, |
|
"step": 757 |
|
}, |
|
{ |
|
"epoch": 0.25266666666666665, |
|
"grad_norm": 2.359557628631592, |
|
"learning_rate": 4.1518518518518525e-05, |
|
"loss": 0.3961, |
|
"step": 758 |
|
}, |
|
{ |
|
"epoch": 0.253, |
|
"grad_norm": 1.434320092201233, |
|
"learning_rate": 4.15e-05, |
|
"loss": 0.3363, |
|
"step": 759 |
|
}, |
|
{ |
|
"epoch": 0.25333333333333335, |
|
"grad_norm": 1.565841794013977, |
|
"learning_rate": 4.148148148148148e-05, |
|
"loss": 0.3125, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 0.25366666666666665, |
|
"grad_norm": 1.6295406818389893, |
|
"learning_rate": 4.146296296296297e-05, |
|
"loss": 0.3873, |
|
"step": 761 |
|
}, |
|
{ |
|
"epoch": 0.254, |
|
"grad_norm": 1.608017086982727, |
|
"learning_rate": 4.144444444444445e-05, |
|
"loss": 0.3, |
|
"step": 762 |
|
}, |
|
{ |
|
"epoch": 0.25433333333333336, |
|
"grad_norm": 1.3441147804260254, |
|
"learning_rate": 4.142592592592593e-05, |
|
"loss": 0.3284, |
|
"step": 763 |
|
}, |
|
{ |
|
"epoch": 0.25466666666666665, |
|
"grad_norm": 1.3225023746490479, |
|
"learning_rate": 4.140740740740741e-05, |
|
"loss": 0.3153, |
|
"step": 764 |
|
}, |
|
{ |
|
"epoch": 0.255, |
|
"grad_norm": 1.2415051460266113, |
|
"learning_rate": 4.138888888888889e-05, |
|
"loss": 0.3073, |
|
"step": 765 |
|
}, |
|
{ |
|
"epoch": 0.25533333333333336, |
|
"grad_norm": 1.602225422859192, |
|
"learning_rate": 4.137037037037037e-05, |
|
"loss": 0.3702, |
|
"step": 766 |
|
}, |
|
{ |
|
"epoch": 0.25566666666666665, |
|
"grad_norm": 1.104784369468689, |
|
"learning_rate": 4.135185185185185e-05, |
|
"loss": 0.2982, |
|
"step": 767 |
|
}, |
|
{ |
|
"epoch": 0.256, |
|
"grad_norm": 1.3152776956558228, |
|
"learning_rate": 4.133333333333333e-05, |
|
"loss": 0.3094, |
|
"step": 768 |
|
}, |
|
{ |
|
"epoch": 0.25633333333333336, |
|
"grad_norm": 1.5492266416549683, |
|
"learning_rate": 4.131481481481482e-05, |
|
"loss": 0.3501, |
|
"step": 769 |
|
}, |
|
{ |
|
"epoch": 0.25666666666666665, |
|
"grad_norm": 1.6950374841690063, |
|
"learning_rate": 4.12962962962963e-05, |
|
"loss": 0.3718, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 0.257, |
|
"grad_norm": 1.4196640253067017, |
|
"learning_rate": 4.127777777777778e-05, |
|
"loss": 0.3662, |
|
"step": 771 |
|
}, |
|
{ |
|
"epoch": 0.25733333333333336, |
|
"grad_norm": 1.5333114862442017, |
|
"learning_rate": 4.1259259259259256e-05, |
|
"loss": 0.3552, |
|
"step": 772 |
|
}, |
|
{ |
|
"epoch": 0.25766666666666665, |
|
"grad_norm": 1.3045767545700073, |
|
"learning_rate": 4.1240740740740744e-05, |
|
"loss": 0.3391, |
|
"step": 773 |
|
}, |
|
{ |
|
"epoch": 0.258, |
|
"grad_norm": 1.4657682180404663, |
|
"learning_rate": 4.1222222222222224e-05, |
|
"loss": 0.3913, |
|
"step": 774 |
|
}, |
|
{ |
|
"epoch": 0.25833333333333336, |
|
"grad_norm": 1.4723056554794312, |
|
"learning_rate": 4.1203703703703705e-05, |
|
"loss": 0.4126, |
|
"step": 775 |
|
}, |
|
{ |
|
"epoch": 0.25866666666666666, |
|
"grad_norm": 1.1944102048873901, |
|
"learning_rate": 4.1185185185185186e-05, |
|
"loss": 0.3006, |
|
"step": 776 |
|
}, |
|
{ |
|
"epoch": 0.259, |
|
"grad_norm": 1.2445132732391357, |
|
"learning_rate": 4.116666666666667e-05, |
|
"loss": 0.2764, |
|
"step": 777 |
|
}, |
|
{ |
|
"epoch": 0.25933333333333336, |
|
"grad_norm": 1.335518479347229, |
|
"learning_rate": 4.1148148148148154e-05, |
|
"loss": 0.3098, |
|
"step": 778 |
|
}, |
|
{ |
|
"epoch": 0.25966666666666666, |
|
"grad_norm": 1.24089777469635, |
|
"learning_rate": 4.112962962962963e-05, |
|
"loss": 0.3322, |
|
"step": 779 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"grad_norm": 1.3913564682006836, |
|
"learning_rate": 4.111111111111111e-05, |
|
"loss": 0.3582, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 0.26033333333333336, |
|
"grad_norm": 1.2934868335723877, |
|
"learning_rate": 4.1092592592592597e-05, |
|
"loss": 0.3316, |
|
"step": 781 |
|
}, |
|
{ |
|
"epoch": 0.26066666666666666, |
|
"grad_norm": 1.701065182685852, |
|
"learning_rate": 4.107407407407408e-05, |
|
"loss": 0.4077, |
|
"step": 782 |
|
}, |
|
{ |
|
"epoch": 0.261, |
|
"grad_norm": 1.7660771608352661, |
|
"learning_rate": 4.105555555555556e-05, |
|
"loss": 0.43, |
|
"step": 783 |
|
}, |
|
{ |
|
"epoch": 0.2613333333333333, |
|
"grad_norm": 1.3048421144485474, |
|
"learning_rate": 4.103703703703704e-05, |
|
"loss": 0.3636, |
|
"step": 784 |
|
}, |
|
{ |
|
"epoch": 0.26166666666666666, |
|
"grad_norm": 1.1929850578308105, |
|
"learning_rate": 4.101851851851852e-05, |
|
"loss": 0.3354, |
|
"step": 785 |
|
}, |
|
{ |
|
"epoch": 0.262, |
|
"grad_norm": 1.207017421722412, |
|
"learning_rate": 4.1e-05, |
|
"loss": 0.3277, |
|
"step": 786 |
|
}, |
|
{ |
|
"epoch": 0.2623333333333333, |
|
"grad_norm": 1.207348108291626, |
|
"learning_rate": 4.098148148148148e-05, |
|
"loss": 0.2705, |
|
"step": 787 |
|
}, |
|
{ |
|
"epoch": 0.26266666666666666, |
|
"grad_norm": 1.398911476135254, |
|
"learning_rate": 4.096296296296296e-05, |
|
"loss": 0.4169, |
|
"step": 788 |
|
}, |
|
{ |
|
"epoch": 0.263, |
|
"grad_norm": 1.3541525602340698, |
|
"learning_rate": 4.094444444444445e-05, |
|
"loss": 0.3539, |
|
"step": 789 |
|
}, |
|
{ |
|
"epoch": 0.2633333333333333, |
|
"grad_norm": 1.4394408464431763, |
|
"learning_rate": 4.092592592592593e-05, |
|
"loss": 0.3675, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 0.26366666666666666, |
|
"grad_norm": 1.5678784847259521, |
|
"learning_rate": 4.090740740740741e-05, |
|
"loss": 0.3822, |
|
"step": 791 |
|
}, |
|
{ |
|
"epoch": 0.264, |
|
"grad_norm": 1.7356022596359253, |
|
"learning_rate": 4.088888888888889e-05, |
|
"loss": 0.4107, |
|
"step": 792 |
|
}, |
|
{ |
|
"epoch": 0.2643333333333333, |
|
"grad_norm": 1.1587564945220947, |
|
"learning_rate": 4.087037037037037e-05, |
|
"loss": 0.2792, |
|
"step": 793 |
|
}, |
|
{ |
|
"epoch": 0.26466666666666666, |
|
"grad_norm": 1.576454758644104, |
|
"learning_rate": 4.0851851851851853e-05, |
|
"loss": 0.3757, |
|
"step": 794 |
|
}, |
|
{ |
|
"epoch": 0.265, |
|
"grad_norm": 1.5076576471328735, |
|
"learning_rate": 4.0833333333333334e-05, |
|
"loss": 0.3876, |
|
"step": 795 |
|
}, |
|
{ |
|
"epoch": 0.2653333333333333, |
|
"grad_norm": 1.4706981182098389, |
|
"learning_rate": 4.0814814814814815e-05, |
|
"loss": 0.3458, |
|
"step": 796 |
|
}, |
|
{ |
|
"epoch": 0.26566666666666666, |
|
"grad_norm": 1.6495285034179688, |
|
"learning_rate": 4.0796296296296296e-05, |
|
"loss": 0.369, |
|
"step": 797 |
|
}, |
|
{ |
|
"epoch": 0.266, |
|
"grad_norm": 1.2885559797286987, |
|
"learning_rate": 4.0777777777777783e-05, |
|
"loss": 0.3476, |
|
"step": 798 |
|
}, |
|
{ |
|
"epoch": 0.2663333333333333, |
|
"grad_norm": 1.2338265180587769, |
|
"learning_rate": 4.0759259259259264e-05, |
|
"loss": 0.351, |
|
"step": 799 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 1.3814194202423096, |
|
"learning_rate": 4.074074074074074e-05, |
|
"loss": 0.353, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.267, |
|
"grad_norm": 1.3949973583221436, |
|
"learning_rate": 4.0722222222222226e-05, |
|
"loss": 0.3971, |
|
"step": 801 |
|
}, |
|
{ |
|
"epoch": 0.2673333333333333, |
|
"grad_norm": 1.2781027555465698, |
|
"learning_rate": 4.0703703703703707e-05, |
|
"loss": 0.3596, |
|
"step": 802 |
|
}, |
|
{ |
|
"epoch": 0.26766666666666666, |
|
"grad_norm": 1.775307536125183, |
|
"learning_rate": 4.068518518518519e-05, |
|
"loss": 0.5056, |
|
"step": 803 |
|
}, |
|
{ |
|
"epoch": 0.268, |
|
"grad_norm": 1.4195681810379028, |
|
"learning_rate": 4.066666666666667e-05, |
|
"loss": 0.3162, |
|
"step": 804 |
|
}, |
|
{ |
|
"epoch": 0.2683333333333333, |
|
"grad_norm": 1.6774126291275024, |
|
"learning_rate": 4.064814814814815e-05, |
|
"loss": 0.3683, |
|
"step": 805 |
|
}, |
|
{ |
|
"epoch": 0.26866666666666666, |
|
"grad_norm": 1.1482571363449097, |
|
"learning_rate": 4.0629629629629636e-05, |
|
"loss": 0.34, |
|
"step": 806 |
|
}, |
|
{ |
|
"epoch": 0.269, |
|
"grad_norm": 1.2635096311569214, |
|
"learning_rate": 4.061111111111111e-05, |
|
"loss": 0.3663, |
|
"step": 807 |
|
}, |
|
{ |
|
"epoch": 0.2693333333333333, |
|
"grad_norm": 1.5141239166259766, |
|
"learning_rate": 4.059259259259259e-05, |
|
"loss": 0.3972, |
|
"step": 808 |
|
}, |
|
{ |
|
"epoch": 0.26966666666666667, |
|
"grad_norm": 1.4469480514526367, |
|
"learning_rate": 4.057407407407408e-05, |
|
"loss": 0.3729, |
|
"step": 809 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"grad_norm": 1.3128126859664917, |
|
"learning_rate": 4.055555555555556e-05, |
|
"loss": 0.3025, |
|
"step": 810 |
|
}, |
|
{ |
|
"epoch": 0.2703333333333333, |
|
"grad_norm": 1.5247198343276978, |
|
"learning_rate": 4.053703703703704e-05, |
|
"loss": 0.3752, |
|
"step": 811 |
|
}, |
|
{ |
|
"epoch": 0.27066666666666667, |
|
"grad_norm": 1.475996732711792, |
|
"learning_rate": 4.051851851851852e-05, |
|
"loss": 0.3655, |
|
"step": 812 |
|
}, |
|
{ |
|
"epoch": 0.271, |
|
"grad_norm": 1.3385744094848633, |
|
"learning_rate": 4.05e-05, |
|
"loss": 0.3421, |
|
"step": 813 |
|
}, |
|
{ |
|
"epoch": 0.2713333333333333, |
|
"grad_norm": 1.6504689455032349, |
|
"learning_rate": 4.048148148148148e-05, |
|
"loss": 0.3838, |
|
"step": 814 |
|
}, |
|
{ |
|
"epoch": 0.27166666666666667, |
|
"grad_norm": 1.456794261932373, |
|
"learning_rate": 4.0462962962962963e-05, |
|
"loss": 0.3658, |
|
"step": 815 |
|
}, |
|
{ |
|
"epoch": 0.272, |
|
"grad_norm": 1.3881524801254272, |
|
"learning_rate": 4.0444444444444444e-05, |
|
"loss": 0.3343, |
|
"step": 816 |
|
}, |
|
{ |
|
"epoch": 0.2723333333333333, |
|
"grad_norm": 1.5507861375808716, |
|
"learning_rate": 4.0425925925925925e-05, |
|
"loss": 0.3516, |
|
"step": 817 |
|
}, |
|
{ |
|
"epoch": 0.27266666666666667, |
|
"grad_norm": 1.2345412969589233, |
|
"learning_rate": 4.040740740740741e-05, |
|
"loss": 0.2705, |
|
"step": 818 |
|
}, |
|
{ |
|
"epoch": 0.273, |
|
"grad_norm": 1.2728513479232788, |
|
"learning_rate": 4.038888888888889e-05, |
|
"loss": 0.3007, |
|
"step": 819 |
|
}, |
|
{ |
|
"epoch": 0.2733333333333333, |
|
"grad_norm": 1.4103991985321045, |
|
"learning_rate": 4.0370370370370374e-05, |
|
"loss": 0.3626, |
|
"step": 820 |
|
}, |
|
{ |
|
"epoch": 0.27366666666666667, |
|
"grad_norm": 1.4325361251831055, |
|
"learning_rate": 4.0351851851851855e-05, |
|
"loss": 0.3785, |
|
"step": 821 |
|
}, |
|
{ |
|
"epoch": 0.274, |
|
"grad_norm": 1.4200563430786133, |
|
"learning_rate": 4.0333333333333336e-05, |
|
"loss": 0.378, |
|
"step": 822 |
|
}, |
|
{ |
|
"epoch": 0.2743333333333333, |
|
"grad_norm": 1.456470012664795, |
|
"learning_rate": 4.0314814814814816e-05, |
|
"loss": 0.4219, |
|
"step": 823 |
|
}, |
|
{ |
|
"epoch": 0.27466666666666667, |
|
"grad_norm": 1.28714120388031, |
|
"learning_rate": 4.02962962962963e-05, |
|
"loss": 0.3838, |
|
"step": 824 |
|
}, |
|
{ |
|
"epoch": 0.275, |
|
"grad_norm": 1.287011981010437, |
|
"learning_rate": 4.027777777777778e-05, |
|
"loss": 0.3253, |
|
"step": 825 |
|
}, |
|
{ |
|
"epoch": 0.2753333333333333, |
|
"grad_norm": 1.292240858078003, |
|
"learning_rate": 4.0259259259259266e-05, |
|
"loss": 0.3134, |
|
"step": 826 |
|
}, |
|
{ |
|
"epoch": 0.27566666666666667, |
|
"grad_norm": 1.7025339603424072, |
|
"learning_rate": 4.024074074074074e-05, |
|
"loss": 0.5296, |
|
"step": 827 |
|
}, |
|
{ |
|
"epoch": 0.276, |
|
"grad_norm": 1.3449290990829468, |
|
"learning_rate": 4.022222222222222e-05, |
|
"loss": 0.333, |
|
"step": 828 |
|
}, |
|
{ |
|
"epoch": 0.2763333333333333, |
|
"grad_norm": 1.5160585641860962, |
|
"learning_rate": 4.020370370370371e-05, |
|
"loss": 0.3376, |
|
"step": 829 |
|
}, |
|
{ |
|
"epoch": 0.27666666666666667, |
|
"grad_norm": 1.1866682767868042, |
|
"learning_rate": 4.018518518518519e-05, |
|
"loss": 0.2871, |
|
"step": 830 |
|
}, |
|
{ |
|
"epoch": 0.277, |
|
"grad_norm": 1.785448431968689, |
|
"learning_rate": 4.016666666666667e-05, |
|
"loss": 0.3198, |
|
"step": 831 |
|
}, |
|
{ |
|
"epoch": 0.2773333333333333, |
|
"grad_norm": 1.6618571281433105, |
|
"learning_rate": 4.014814814814815e-05, |
|
"loss": 0.3102, |
|
"step": 832 |
|
}, |
|
{ |
|
"epoch": 0.2776666666666667, |
|
"grad_norm": 1.4342378377914429, |
|
"learning_rate": 4.012962962962963e-05, |
|
"loss": 0.4192, |
|
"step": 833 |
|
}, |
|
{ |
|
"epoch": 0.278, |
|
"grad_norm": 1.165028691291809, |
|
"learning_rate": 4.011111111111111e-05, |
|
"loss": 0.301, |
|
"step": 834 |
|
}, |
|
{ |
|
"epoch": 0.2783333333333333, |
|
"grad_norm": 1.4417414665222168, |
|
"learning_rate": 4.009259259259259e-05, |
|
"loss": 0.2726, |
|
"step": 835 |
|
}, |
|
{ |
|
"epoch": 0.2786666666666667, |
|
"grad_norm": 1.2854143381118774, |
|
"learning_rate": 4.007407407407407e-05, |
|
"loss": 0.3716, |
|
"step": 836 |
|
}, |
|
{ |
|
"epoch": 0.279, |
|
"grad_norm": 1.2607567310333252, |
|
"learning_rate": 4.0055555555555554e-05, |
|
"loss": 0.3157, |
|
"step": 837 |
|
}, |
|
{ |
|
"epoch": 0.2793333333333333, |
|
"grad_norm": 1.3052359819412231, |
|
"learning_rate": 4.003703703703704e-05, |
|
"loss": 0.3762, |
|
"step": 838 |
|
}, |
|
{ |
|
"epoch": 0.2796666666666667, |
|
"grad_norm": 1.495180606842041, |
|
"learning_rate": 4.001851851851852e-05, |
|
"loss": 0.4062, |
|
"step": 839 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"grad_norm": 1.353929877281189, |
|
"learning_rate": 4e-05, |
|
"loss": 0.3111, |
|
"step": 840 |
|
}, |
|
{ |
|
"epoch": 0.2803333333333333, |
|
"grad_norm": 1.4994372129440308, |
|
"learning_rate": 3.9981481481481484e-05, |
|
"loss": 0.3643, |
|
"step": 841 |
|
}, |
|
{ |
|
"epoch": 0.2806666666666667, |
|
"grad_norm": 1.097528338432312, |
|
"learning_rate": 3.9962962962962965e-05, |
|
"loss": 0.3381, |
|
"step": 842 |
|
}, |
|
{ |
|
"epoch": 0.281, |
|
"grad_norm": 1.348486065864563, |
|
"learning_rate": 3.9944444444444446e-05, |
|
"loss": 0.3263, |
|
"step": 843 |
|
}, |
|
{ |
|
"epoch": 0.2813333333333333, |
|
"grad_norm": 1.4403632879257202, |
|
"learning_rate": 3.9925925925925926e-05, |
|
"loss": 0.4281, |
|
"step": 844 |
|
}, |
|
{ |
|
"epoch": 0.2816666666666667, |
|
"grad_norm": 1.3258768320083618, |
|
"learning_rate": 3.990740740740741e-05, |
|
"loss": 0.3579, |
|
"step": 845 |
|
}, |
|
{ |
|
"epoch": 0.282, |
|
"grad_norm": 1.3752247095108032, |
|
"learning_rate": 3.9888888888888895e-05, |
|
"loss": 0.443, |
|
"step": 846 |
|
}, |
|
{ |
|
"epoch": 0.2823333333333333, |
|
"grad_norm": 1.6445602178573608, |
|
"learning_rate": 3.9870370370370376e-05, |
|
"loss": 0.3588, |
|
"step": 847 |
|
}, |
|
{ |
|
"epoch": 0.2826666666666667, |
|
"grad_norm": 1.41145658493042, |
|
"learning_rate": 3.985185185185185e-05, |
|
"loss": 0.3526, |
|
"step": 848 |
|
}, |
|
{ |
|
"epoch": 0.283, |
|
"grad_norm": 5.141585350036621, |
|
"learning_rate": 3.983333333333333e-05, |
|
"loss": 0.3553, |
|
"step": 849 |
|
}, |
|
{ |
|
"epoch": 0.2833333333333333, |
|
"grad_norm": 1.3255246877670288, |
|
"learning_rate": 3.981481481481482e-05, |
|
"loss": 0.352, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 0.2836666666666667, |
|
"grad_norm": 1.4084287881851196, |
|
"learning_rate": 3.97962962962963e-05, |
|
"loss": 0.3834, |
|
"step": 851 |
|
}, |
|
{ |
|
"epoch": 0.284, |
|
"grad_norm": 1.3366891145706177, |
|
"learning_rate": 3.977777777777778e-05, |
|
"loss": 0.3865, |
|
"step": 852 |
|
}, |
|
{ |
|
"epoch": 0.2843333333333333, |
|
"grad_norm": 1.256201148033142, |
|
"learning_rate": 3.975925925925926e-05, |
|
"loss": 0.3187, |
|
"step": 853 |
|
}, |
|
{ |
|
"epoch": 0.2846666666666667, |
|
"grad_norm": 1.4136888980865479, |
|
"learning_rate": 3.974074074074075e-05, |
|
"loss": 0.3765, |
|
"step": 854 |
|
}, |
|
{ |
|
"epoch": 0.285, |
|
"grad_norm": 1.1720857620239258, |
|
"learning_rate": 3.972222222222222e-05, |
|
"loss": 0.2947, |
|
"step": 855 |
|
}, |
|
{ |
|
"epoch": 0.2853333333333333, |
|
"grad_norm": 1.7148245573043823, |
|
"learning_rate": 3.97037037037037e-05, |
|
"loss": 0.3416, |
|
"step": 856 |
|
}, |
|
{ |
|
"epoch": 0.2856666666666667, |
|
"grad_norm": 1.4059994220733643, |
|
"learning_rate": 3.968518518518518e-05, |
|
"loss": 0.3528, |
|
"step": 857 |
|
}, |
|
{ |
|
"epoch": 0.286, |
|
"grad_norm": 1.571160078048706, |
|
"learning_rate": 3.966666666666667e-05, |
|
"loss": 0.3772, |
|
"step": 858 |
|
}, |
|
{ |
|
"epoch": 0.28633333333333333, |
|
"grad_norm": 1.449386715888977, |
|
"learning_rate": 3.964814814814815e-05, |
|
"loss": 0.3623, |
|
"step": 859 |
|
}, |
|
{ |
|
"epoch": 0.2866666666666667, |
|
"grad_norm": 1.1920171976089478, |
|
"learning_rate": 3.962962962962963e-05, |
|
"loss": 0.2957, |
|
"step": 860 |
|
}, |
|
{ |
|
"epoch": 0.287, |
|
"grad_norm": 1.3213661909103394, |
|
"learning_rate": 3.961111111111111e-05, |
|
"loss": 0.3546, |
|
"step": 861 |
|
}, |
|
{ |
|
"epoch": 0.28733333333333333, |
|
"grad_norm": 1.5201573371887207, |
|
"learning_rate": 3.9592592592592594e-05, |
|
"loss": 0.3355, |
|
"step": 862 |
|
}, |
|
{ |
|
"epoch": 0.2876666666666667, |
|
"grad_norm": 1.8718082904815674, |
|
"learning_rate": 3.9574074074074075e-05, |
|
"loss": 0.329, |
|
"step": 863 |
|
}, |
|
{ |
|
"epoch": 0.288, |
|
"grad_norm": 1.5103901624679565, |
|
"learning_rate": 3.9555555555555556e-05, |
|
"loss": 0.3645, |
|
"step": 864 |
|
}, |
|
{ |
|
"epoch": 0.28833333333333333, |
|
"grad_norm": 1.3018239736557007, |
|
"learning_rate": 3.9537037037037036e-05, |
|
"loss": 0.3111, |
|
"step": 865 |
|
}, |
|
{ |
|
"epoch": 0.2886666666666667, |
|
"grad_norm": 1.6183236837387085, |
|
"learning_rate": 3.9518518518518524e-05, |
|
"loss": 0.4415, |
|
"step": 866 |
|
}, |
|
{ |
|
"epoch": 0.289, |
|
"grad_norm": 1.3570756912231445, |
|
"learning_rate": 3.9500000000000005e-05, |
|
"loss": 0.294, |
|
"step": 867 |
|
}, |
|
{ |
|
"epoch": 0.28933333333333333, |
|
"grad_norm": 1.2522437572479248, |
|
"learning_rate": 3.9481481481481485e-05, |
|
"loss": 0.3571, |
|
"step": 868 |
|
}, |
|
{ |
|
"epoch": 0.2896666666666667, |
|
"grad_norm": 1.3651636838912964, |
|
"learning_rate": 3.946296296296296e-05, |
|
"loss": 0.3585, |
|
"step": 869 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"grad_norm": 1.2567559480667114, |
|
"learning_rate": 3.944444444444445e-05, |
|
"loss": 0.3034, |
|
"step": 870 |
|
}, |
|
{ |
|
"epoch": 0.29033333333333333, |
|
"grad_norm": 1.446004867553711, |
|
"learning_rate": 3.942592592592593e-05, |
|
"loss": 0.3542, |
|
"step": 871 |
|
}, |
|
{ |
|
"epoch": 0.2906666666666667, |
|
"grad_norm": 1.6699246168136597, |
|
"learning_rate": 3.940740740740741e-05, |
|
"loss": 0.3636, |
|
"step": 872 |
|
}, |
|
{ |
|
"epoch": 0.291, |
|
"grad_norm": 1.4893025159835815, |
|
"learning_rate": 3.938888888888889e-05, |
|
"loss": 0.346, |
|
"step": 873 |
|
}, |
|
{ |
|
"epoch": 0.29133333333333333, |
|
"grad_norm": 1.4684242010116577, |
|
"learning_rate": 3.937037037037038e-05, |
|
"loss": 0.3505, |
|
"step": 874 |
|
}, |
|
{ |
|
"epoch": 0.2916666666666667, |
|
"grad_norm": 1.2339351177215576, |
|
"learning_rate": 3.935185185185186e-05, |
|
"loss": 0.3128, |
|
"step": 875 |
|
}, |
|
{ |
|
"epoch": 0.292, |
|
"grad_norm": 1.173764705657959, |
|
"learning_rate": 3.933333333333333e-05, |
|
"loss": 0.2901, |
|
"step": 876 |
|
}, |
|
{ |
|
"epoch": 0.29233333333333333, |
|
"grad_norm": 1.3826504945755005, |
|
"learning_rate": 3.931481481481481e-05, |
|
"loss": 0.3294, |
|
"step": 877 |
|
}, |
|
{ |
|
"epoch": 0.2926666666666667, |
|
"grad_norm": 1.2246149778366089, |
|
"learning_rate": 3.92962962962963e-05, |
|
"loss": 0.3178, |
|
"step": 878 |
|
}, |
|
{ |
|
"epoch": 0.293, |
|
"grad_norm": 1.195994257926941, |
|
"learning_rate": 3.927777777777778e-05, |
|
"loss": 0.3298, |
|
"step": 879 |
|
}, |
|
{ |
|
"epoch": 0.29333333333333333, |
|
"grad_norm": 1.223406434059143, |
|
"learning_rate": 3.925925925925926e-05, |
|
"loss": 0.3619, |
|
"step": 880 |
|
}, |
|
{ |
|
"epoch": 0.2936666666666667, |
|
"grad_norm": 1.3600610494613647, |
|
"learning_rate": 3.924074074074074e-05, |
|
"loss": 0.3787, |
|
"step": 881 |
|
}, |
|
{ |
|
"epoch": 0.294, |
|
"grad_norm": 1.4605013132095337, |
|
"learning_rate": 3.922222222222223e-05, |
|
"loss": 0.4291, |
|
"step": 882 |
|
}, |
|
{ |
|
"epoch": 0.29433333333333334, |
|
"grad_norm": 1.3966978788375854, |
|
"learning_rate": 3.9203703703703704e-05, |
|
"loss": 0.3685, |
|
"step": 883 |
|
}, |
|
{ |
|
"epoch": 0.2946666666666667, |
|
"grad_norm": 1.7487388849258423, |
|
"learning_rate": 3.9185185185185185e-05, |
|
"loss": 0.4585, |
|
"step": 884 |
|
}, |
|
{ |
|
"epoch": 0.295, |
|
"grad_norm": 1.5563944578170776, |
|
"learning_rate": 3.9166666666666665e-05, |
|
"loss": 0.3958, |
|
"step": 885 |
|
}, |
|
{ |
|
"epoch": 0.29533333333333334, |
|
"grad_norm": 1.1526061296463013, |
|
"learning_rate": 3.914814814814815e-05, |
|
"loss": 0.3108, |
|
"step": 886 |
|
}, |
|
{ |
|
"epoch": 0.2956666666666667, |
|
"grad_norm": 2.1721689701080322, |
|
"learning_rate": 3.9129629629629634e-05, |
|
"loss": 0.3015, |
|
"step": 887 |
|
}, |
|
{ |
|
"epoch": 0.296, |
|
"grad_norm": 1.611386775970459, |
|
"learning_rate": 3.9111111111111115e-05, |
|
"loss": 0.4427, |
|
"step": 888 |
|
}, |
|
{ |
|
"epoch": 0.29633333333333334, |
|
"grad_norm": 1.6230885982513428, |
|
"learning_rate": 3.909259259259259e-05, |
|
"loss": 0.3378, |
|
"step": 889 |
|
}, |
|
{ |
|
"epoch": 0.2966666666666667, |
|
"grad_norm": 1.3626060485839844, |
|
"learning_rate": 3.9074074074074076e-05, |
|
"loss": 0.3879, |
|
"step": 890 |
|
}, |
|
{ |
|
"epoch": 0.297, |
|
"grad_norm": 1.6999090909957886, |
|
"learning_rate": 3.905555555555556e-05, |
|
"loss": 0.4033, |
|
"step": 891 |
|
}, |
|
{ |
|
"epoch": 0.29733333333333334, |
|
"grad_norm": 1.3023254871368408, |
|
"learning_rate": 3.903703703703704e-05, |
|
"loss": 0.3567, |
|
"step": 892 |
|
}, |
|
{ |
|
"epoch": 0.2976666666666667, |
|
"grad_norm": 1.7830791473388672, |
|
"learning_rate": 3.901851851851852e-05, |
|
"loss": 0.3597, |
|
"step": 893 |
|
}, |
|
{ |
|
"epoch": 0.298, |
|
"grad_norm": 1.5148744583129883, |
|
"learning_rate": 3.9000000000000006e-05, |
|
"loss": 0.3728, |
|
"step": 894 |
|
}, |
|
{ |
|
"epoch": 0.29833333333333334, |
|
"grad_norm": 1.3890525102615356, |
|
"learning_rate": 3.898148148148149e-05, |
|
"loss": 0.3208, |
|
"step": 895 |
|
}, |
|
{ |
|
"epoch": 0.2986666666666667, |
|
"grad_norm": 1.2798212766647339, |
|
"learning_rate": 3.896296296296296e-05, |
|
"loss": 0.346, |
|
"step": 896 |
|
}, |
|
{ |
|
"epoch": 0.299, |
|
"grad_norm": 1.3253546953201294, |
|
"learning_rate": 3.894444444444444e-05, |
|
"loss": 0.3252, |
|
"step": 897 |
|
}, |
|
{ |
|
"epoch": 0.29933333333333334, |
|
"grad_norm": 1.3032668828964233, |
|
"learning_rate": 3.892592592592593e-05, |
|
"loss": 0.3739, |
|
"step": 898 |
|
}, |
|
{ |
|
"epoch": 0.2996666666666667, |
|
"grad_norm": 1.2352277040481567, |
|
"learning_rate": 3.890740740740741e-05, |
|
"loss": 0.3514, |
|
"step": 899 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"grad_norm": 1.3053611516952515, |
|
"learning_rate": 3.888888888888889e-05, |
|
"loss": 0.3875, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 0.30033333333333334, |
|
"grad_norm": 1.0773141384124756, |
|
"learning_rate": 3.887037037037037e-05, |
|
"loss": 0.2743, |
|
"step": 901 |
|
}, |
|
{ |
|
"epoch": 0.3006666666666667, |
|
"grad_norm": 1.2912036180496216, |
|
"learning_rate": 3.885185185185186e-05, |
|
"loss": 0.3447, |
|
"step": 902 |
|
}, |
|
{ |
|
"epoch": 0.301, |
|
"grad_norm": 1.272647500038147, |
|
"learning_rate": 3.883333333333333e-05, |
|
"loss": 0.3419, |
|
"step": 903 |
|
}, |
|
{ |
|
"epoch": 0.30133333333333334, |
|
"grad_norm": 1.4251070022583008, |
|
"learning_rate": 3.8814814814814814e-05, |
|
"loss": 0.3738, |
|
"step": 904 |
|
}, |
|
{ |
|
"epoch": 0.3016666666666667, |
|
"grad_norm": 1.3882228136062622, |
|
"learning_rate": 3.8796296296296295e-05, |
|
"loss": 0.3295, |
|
"step": 905 |
|
}, |
|
{ |
|
"epoch": 0.302, |
|
"grad_norm": 1.5582339763641357, |
|
"learning_rate": 3.877777777777778e-05, |
|
"loss": 0.4242, |
|
"step": 906 |
|
}, |
|
{ |
|
"epoch": 0.30233333333333334, |
|
"grad_norm": 1.359479308128357, |
|
"learning_rate": 3.875925925925926e-05, |
|
"loss": 0.3797, |
|
"step": 907 |
|
}, |
|
{ |
|
"epoch": 0.30266666666666664, |
|
"grad_norm": 1.6548995971679688, |
|
"learning_rate": 3.8740740740740744e-05, |
|
"loss": 0.3808, |
|
"step": 908 |
|
}, |
|
{ |
|
"epoch": 0.303, |
|
"grad_norm": 1.2039756774902344, |
|
"learning_rate": 3.8722222222222225e-05, |
|
"loss": 0.3139, |
|
"step": 909 |
|
}, |
|
{ |
|
"epoch": 0.30333333333333334, |
|
"grad_norm": 1.0794775485992432, |
|
"learning_rate": 3.8703703703703705e-05, |
|
"loss": 0.2616, |
|
"step": 910 |
|
}, |
|
{ |
|
"epoch": 0.30366666666666664, |
|
"grad_norm": 1.4288307428359985, |
|
"learning_rate": 3.8685185185185186e-05, |
|
"loss": 0.3401, |
|
"step": 911 |
|
}, |
|
{ |
|
"epoch": 0.304, |
|
"grad_norm": 1.3045710325241089, |
|
"learning_rate": 3.866666666666667e-05, |
|
"loss": 0.3058, |
|
"step": 912 |
|
}, |
|
{ |
|
"epoch": 0.30433333333333334, |
|
"grad_norm": 1.2060816287994385, |
|
"learning_rate": 3.864814814814815e-05, |
|
"loss": 0.3089, |
|
"step": 913 |
|
}, |
|
{ |
|
"epoch": 0.30466666666666664, |
|
"grad_norm": 1.7363193035125732, |
|
"learning_rate": 3.8629629629629635e-05, |
|
"loss": 0.3443, |
|
"step": 914 |
|
}, |
|
{ |
|
"epoch": 0.305, |
|
"grad_norm": 1.6673532724380493, |
|
"learning_rate": 3.8611111111111116e-05, |
|
"loss": 0.3454, |
|
"step": 915 |
|
}, |
|
{ |
|
"epoch": 0.30533333333333335, |
|
"grad_norm": 1.3578459024429321, |
|
"learning_rate": 3.85925925925926e-05, |
|
"loss": 0.3108, |
|
"step": 916 |
|
}, |
|
{ |
|
"epoch": 0.30566666666666664, |
|
"grad_norm": 1.2931619882583618, |
|
"learning_rate": 3.857407407407407e-05, |
|
"loss": 0.2997, |
|
"step": 917 |
|
}, |
|
{ |
|
"epoch": 0.306, |
|
"grad_norm": 1.2525206804275513, |
|
"learning_rate": 3.855555555555556e-05, |
|
"loss": 0.3154, |
|
"step": 918 |
|
}, |
|
{ |
|
"epoch": 0.30633333333333335, |
|
"grad_norm": 1.3815010786056519, |
|
"learning_rate": 3.853703703703704e-05, |
|
"loss": 0.3254, |
|
"step": 919 |
|
}, |
|
{ |
|
"epoch": 0.30666666666666664, |
|
"grad_norm": 1.4179706573486328, |
|
"learning_rate": 3.851851851851852e-05, |
|
"loss": 0.3767, |
|
"step": 920 |
|
}, |
|
{ |
|
"epoch": 0.307, |
|
"grad_norm": 1.3598191738128662, |
|
"learning_rate": 3.85e-05, |
|
"loss": 0.3513, |
|
"step": 921 |
|
}, |
|
{ |
|
"epoch": 0.30733333333333335, |
|
"grad_norm": 1.7877548933029175, |
|
"learning_rate": 3.848148148148149e-05, |
|
"loss": 0.3614, |
|
"step": 922 |
|
}, |
|
{ |
|
"epoch": 0.30766666666666664, |
|
"grad_norm": 1.3656010627746582, |
|
"learning_rate": 3.846296296296297e-05, |
|
"loss": 0.3425, |
|
"step": 923 |
|
}, |
|
{ |
|
"epoch": 0.308, |
|
"grad_norm": 4.808995246887207, |
|
"learning_rate": 3.844444444444444e-05, |
|
"loss": 0.307, |
|
"step": 924 |
|
}, |
|
{ |
|
"epoch": 0.30833333333333335, |
|
"grad_norm": 1.1662079095840454, |
|
"learning_rate": 3.8425925925925924e-05, |
|
"loss": 0.3141, |
|
"step": 925 |
|
}, |
|
{ |
|
"epoch": 0.30866666666666664, |
|
"grad_norm": 1.2092838287353516, |
|
"learning_rate": 3.840740740740741e-05, |
|
"loss": 0.3022, |
|
"step": 926 |
|
}, |
|
{ |
|
"epoch": 0.309, |
|
"grad_norm": 1.454504132270813, |
|
"learning_rate": 3.838888888888889e-05, |
|
"loss": 0.3933, |
|
"step": 927 |
|
}, |
|
{ |
|
"epoch": 0.30933333333333335, |
|
"grad_norm": 2.092907667160034, |
|
"learning_rate": 3.837037037037037e-05, |
|
"loss": 0.3429, |
|
"step": 928 |
|
}, |
|
{ |
|
"epoch": 0.30966666666666665, |
|
"grad_norm": 1.180614948272705, |
|
"learning_rate": 3.8351851851851854e-05, |
|
"loss": 0.2756, |
|
"step": 929 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"grad_norm": 1.3005765676498413, |
|
"learning_rate": 3.8333333333333334e-05, |
|
"loss": 0.3362, |
|
"step": 930 |
|
}, |
|
{ |
|
"epoch": 0.31033333333333335, |
|
"grad_norm": 1.469460129737854, |
|
"learning_rate": 3.8314814814814815e-05, |
|
"loss": 0.3987, |
|
"step": 931 |
|
}, |
|
{ |
|
"epoch": 0.31066666666666665, |
|
"grad_norm": NaN, |
|
"learning_rate": 3.8314814814814815e-05, |
|
"loss": 0.3286, |
|
"step": 932 |
|
}, |
|
{ |
|
"epoch": 0.311, |
|
"grad_norm": 1.983880639076233, |
|
"learning_rate": 3.8296296296296296e-05, |
|
"loss": 0.3333, |
|
"step": 933 |
|
}, |
|
{ |
|
"epoch": 0.31133333333333335, |
|
"grad_norm": 1.4871864318847656, |
|
"learning_rate": 3.827777777777778e-05, |
|
"loss": 0.3111, |
|
"step": 934 |
|
}, |
|
{ |
|
"epoch": 0.31166666666666665, |
|
"grad_norm": 1.5106232166290283, |
|
"learning_rate": 3.8259259259259264e-05, |
|
"loss": 0.3756, |
|
"step": 935 |
|
}, |
|
{ |
|
"epoch": 0.312, |
|
"grad_norm": 1.415174126625061, |
|
"learning_rate": 3.8240740740740745e-05, |
|
"loss": 0.3393, |
|
"step": 936 |
|
}, |
|
{ |
|
"epoch": 0.31233333333333335, |
|
"grad_norm": 1.444771409034729, |
|
"learning_rate": 3.8222222222222226e-05, |
|
"loss": 0.3537, |
|
"step": 937 |
|
}, |
|
{ |
|
"epoch": 0.31266666666666665, |
|
"grad_norm": 1.3916597366333008, |
|
"learning_rate": 3.820370370370371e-05, |
|
"loss": 0.3592, |
|
"step": 938 |
|
}, |
|
{ |
|
"epoch": 0.313, |
|
"grad_norm": 1.3703736066818237, |
|
"learning_rate": 3.818518518518519e-05, |
|
"loss": 0.3531, |
|
"step": 939 |
|
}, |
|
{ |
|
"epoch": 0.31333333333333335, |
|
"grad_norm": 2.362666606903076, |
|
"learning_rate": 3.816666666666667e-05, |
|
"loss": 0.3717, |
|
"step": 940 |
|
}, |
|
{ |
|
"epoch": 0.31366666666666665, |
|
"grad_norm": 1.9897328615188599, |
|
"learning_rate": 3.814814814814815e-05, |
|
"loss": 0.5176, |
|
"step": 941 |
|
}, |
|
{ |
|
"epoch": 0.314, |
|
"grad_norm": 1.2957475185394287, |
|
"learning_rate": 3.812962962962963e-05, |
|
"loss": 0.332, |
|
"step": 942 |
|
}, |
|
{ |
|
"epoch": 0.31433333333333335, |
|
"grad_norm": 1.3311879634857178, |
|
"learning_rate": 3.811111111111112e-05, |
|
"loss": 0.3401, |
|
"step": 943 |
|
}, |
|
{ |
|
"epoch": 0.31466666666666665, |
|
"grad_norm": 2.005011558532715, |
|
"learning_rate": 3.80925925925926e-05, |
|
"loss": 0.3492, |
|
"step": 944 |
|
}, |
|
{ |
|
"epoch": 0.315, |
|
"grad_norm": 1.47440505027771, |
|
"learning_rate": 3.807407407407408e-05, |
|
"loss": 0.3661, |
|
"step": 945 |
|
}, |
|
{ |
|
"epoch": 0.31533333333333335, |
|
"grad_norm": 1.5715532302856445, |
|
"learning_rate": 3.805555555555555e-05, |
|
"loss": 0.2935, |
|
"step": 946 |
|
}, |
|
{ |
|
"epoch": 0.31566666666666665, |
|
"grad_norm": 1.3023148775100708, |
|
"learning_rate": 3.803703703703704e-05, |
|
"loss": 0.331, |
|
"step": 947 |
|
}, |
|
{ |
|
"epoch": 0.316, |
|
"grad_norm": 1.3504129648208618, |
|
"learning_rate": 3.801851851851852e-05, |
|
"loss": 0.3112, |
|
"step": 948 |
|
}, |
|
{ |
|
"epoch": 0.31633333333333336, |
|
"grad_norm": 2.1642982959747314, |
|
"learning_rate": 3.8e-05, |
|
"loss": 0.3065, |
|
"step": 949 |
|
}, |
|
{ |
|
"epoch": 0.31666666666666665, |
|
"grad_norm": 2.3918402194976807, |
|
"learning_rate": 3.798148148148148e-05, |
|
"loss": 0.3791, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 0.317, |
|
"grad_norm": 1.3676456212997437, |
|
"learning_rate": 3.7962962962962964e-05, |
|
"loss": 0.3289, |
|
"step": 951 |
|
}, |
|
{ |
|
"epoch": 0.31733333333333336, |
|
"grad_norm": 1.2880066633224487, |
|
"learning_rate": 3.7944444444444444e-05, |
|
"loss": 0.2805, |
|
"step": 952 |
|
}, |
|
{ |
|
"epoch": 0.31766666666666665, |
|
"grad_norm": 1.68917977809906, |
|
"learning_rate": 3.7925925925925925e-05, |
|
"loss": 0.3794, |
|
"step": 953 |
|
}, |
|
{ |
|
"epoch": 0.318, |
|
"grad_norm": 1.5723520517349243, |
|
"learning_rate": 3.7907407407407406e-05, |
|
"loss": 0.2986, |
|
"step": 954 |
|
}, |
|
{ |
|
"epoch": 0.31833333333333336, |
|
"grad_norm": 1.8405094146728516, |
|
"learning_rate": 3.7888888888888894e-05, |
|
"loss": 0.3654, |
|
"step": 955 |
|
}, |
|
{ |
|
"epoch": 0.31866666666666665, |
|
"grad_norm": 1.9899356365203857, |
|
"learning_rate": 3.7870370370370374e-05, |
|
"loss": 0.4314, |
|
"step": 956 |
|
}, |
|
{ |
|
"epoch": 0.319, |
|
"grad_norm": 1.42067289352417, |
|
"learning_rate": 3.7851851851851855e-05, |
|
"loss": 0.3136, |
|
"step": 957 |
|
}, |
|
{ |
|
"epoch": 0.31933333333333336, |
|
"grad_norm": 1.519590973854065, |
|
"learning_rate": 3.7833333333333336e-05, |
|
"loss": 0.3896, |
|
"step": 958 |
|
}, |
|
{ |
|
"epoch": 0.31966666666666665, |
|
"grad_norm": 1.5198662281036377, |
|
"learning_rate": 3.781481481481482e-05, |
|
"loss": 0.3821, |
|
"step": 959 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"grad_norm": 1.918550729751587, |
|
"learning_rate": 3.77962962962963e-05, |
|
"loss": 0.3349, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 0.32033333333333336, |
|
"grad_norm": 1.3605577945709229, |
|
"learning_rate": 3.777777777777778e-05, |
|
"loss": 0.3489, |
|
"step": 961 |
|
}, |
|
{ |
|
"epoch": 0.32066666666666666, |
|
"grad_norm": 1.2916854619979858, |
|
"learning_rate": 3.775925925925926e-05, |
|
"loss": 0.347, |
|
"step": 962 |
|
}, |
|
{ |
|
"epoch": 0.321, |
|
"grad_norm": 1.572582721710205, |
|
"learning_rate": 3.774074074074074e-05, |
|
"loss": 0.3121, |
|
"step": 963 |
|
}, |
|
{ |
|
"epoch": 0.32133333333333336, |
|
"grad_norm": 1.4521883726119995, |
|
"learning_rate": 3.772222222222223e-05, |
|
"loss": 0.3555, |
|
"step": 964 |
|
}, |
|
{ |
|
"epoch": 0.32166666666666666, |
|
"grad_norm": 2.1491146087646484, |
|
"learning_rate": 3.770370370370371e-05, |
|
"loss": 0.3366, |
|
"step": 965 |
|
}, |
|
{ |
|
"epoch": 0.322, |
|
"grad_norm": 1.4262841939926147, |
|
"learning_rate": 3.768518518518518e-05, |
|
"loss": 0.3533, |
|
"step": 966 |
|
}, |
|
{ |
|
"epoch": 0.32233333333333336, |
|
"grad_norm": 1.3143759965896606, |
|
"learning_rate": 3.766666666666667e-05, |
|
"loss": 0.4036, |
|
"step": 967 |
|
}, |
|
{ |
|
"epoch": 0.32266666666666666, |
|
"grad_norm": 1.2250725030899048, |
|
"learning_rate": 3.764814814814815e-05, |
|
"loss": 0.2897, |
|
"step": 968 |
|
}, |
|
{ |
|
"epoch": 0.323, |
|
"grad_norm": 1.3469847440719604, |
|
"learning_rate": 3.762962962962963e-05, |
|
"loss": 0.3312, |
|
"step": 969 |
|
}, |
|
{ |
|
"epoch": 0.3233333333333333, |
|
"grad_norm": 1.8355865478515625, |
|
"learning_rate": 3.761111111111111e-05, |
|
"loss": 0.2953, |
|
"step": 970 |
|
}, |
|
{ |
|
"epoch": 0.32366666666666666, |
|
"grad_norm": 1.3881330490112305, |
|
"learning_rate": 3.759259259259259e-05, |
|
"loss": 0.3115, |
|
"step": 971 |
|
}, |
|
{ |
|
"epoch": 0.324, |
|
"grad_norm": 1.5569638013839722, |
|
"learning_rate": 3.757407407407408e-05, |
|
"loss": 0.4032, |
|
"step": 972 |
|
}, |
|
{ |
|
"epoch": 0.3243333333333333, |
|
"grad_norm": 1.3486943244934082, |
|
"learning_rate": 3.7555555555555554e-05, |
|
"loss": 0.2901, |
|
"step": 973 |
|
}, |
|
{ |
|
"epoch": 0.32466666666666666, |
|
"grad_norm": 1.3435277938842773, |
|
"learning_rate": 3.7537037037037035e-05, |
|
"loss": 0.2702, |
|
"step": 974 |
|
}, |
|
{ |
|
"epoch": 0.325, |
|
"grad_norm": 1.344024419784546, |
|
"learning_rate": 3.751851851851852e-05, |
|
"loss": 0.306, |
|
"step": 975 |
|
}, |
|
{ |
|
"epoch": 0.3253333333333333, |
|
"grad_norm": 1.397646188735962, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 0.2537, |
|
"step": 976 |
|
}, |
|
{ |
|
"epoch": 0.32566666666666666, |
|
"grad_norm": 4.373431205749512, |
|
"learning_rate": 3.7481481481481484e-05, |
|
"loss": 0.3172, |
|
"step": 977 |
|
}, |
|
{ |
|
"epoch": 0.326, |
|
"grad_norm": 1.3574572801589966, |
|
"learning_rate": 3.7462962962962965e-05, |
|
"loss": 0.3017, |
|
"step": 978 |
|
}, |
|
{ |
|
"epoch": 0.3263333333333333, |
|
"grad_norm": 1.3563703298568726, |
|
"learning_rate": 3.7444444444444446e-05, |
|
"loss": 0.3509, |
|
"step": 979 |
|
}, |
|
{ |
|
"epoch": 0.32666666666666666, |
|
"grad_norm": 1.2914656400680542, |
|
"learning_rate": 3.742592592592593e-05, |
|
"loss": 0.3042, |
|
"step": 980 |
|
}, |
|
{ |
|
"epoch": 0.327, |
|
"grad_norm": 1.3205169439315796, |
|
"learning_rate": 3.740740740740741e-05, |
|
"loss": 0.3018, |
|
"step": 981 |
|
}, |
|
{ |
|
"epoch": 0.3273333333333333, |
|
"grad_norm": 1.7126083374023438, |
|
"learning_rate": 3.738888888888889e-05, |
|
"loss": 0.3478, |
|
"step": 982 |
|
}, |
|
{ |
|
"epoch": 0.32766666666666666, |
|
"grad_norm": 1.3673988580703735, |
|
"learning_rate": 3.737037037037037e-05, |
|
"loss": 0.3276, |
|
"step": 983 |
|
}, |
|
{ |
|
"epoch": 0.328, |
|
"grad_norm": 1.5554841756820679, |
|
"learning_rate": 3.7351851851851857e-05, |
|
"loss": 0.3449, |
|
"step": 984 |
|
}, |
|
{ |
|
"epoch": 0.3283333333333333, |
|
"grad_norm": 1.2867860794067383, |
|
"learning_rate": 3.733333333333334e-05, |
|
"loss": 0.2982, |
|
"step": 985 |
|
}, |
|
{ |
|
"epoch": 0.32866666666666666, |
|
"grad_norm": 1.4816596508026123, |
|
"learning_rate": 3.731481481481482e-05, |
|
"loss": 0.3259, |
|
"step": 986 |
|
}, |
|
{ |
|
"epoch": 0.329, |
|
"grad_norm": 1.2446486949920654, |
|
"learning_rate": 3.72962962962963e-05, |
|
"loss": 0.3243, |
|
"step": 987 |
|
}, |
|
{ |
|
"epoch": 0.3293333333333333, |
|
"grad_norm": 1.3690942525863647, |
|
"learning_rate": 3.727777777777778e-05, |
|
"loss": 0.314, |
|
"step": 988 |
|
}, |
|
{ |
|
"epoch": 0.32966666666666666, |
|
"grad_norm": 1.192113995552063, |
|
"learning_rate": 3.725925925925926e-05, |
|
"loss": 0.3543, |
|
"step": 989 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"grad_norm": 1.291727900505066, |
|
"learning_rate": 3.724074074074074e-05, |
|
"loss": 0.3282, |
|
"step": 990 |
|
}, |
|
{ |
|
"epoch": 0.3303333333333333, |
|
"grad_norm": 1.2864351272583008, |
|
"learning_rate": 3.722222222222222e-05, |
|
"loss": 0.3076, |
|
"step": 991 |
|
}, |
|
{ |
|
"epoch": 0.33066666666666666, |
|
"grad_norm": 1.4030873775482178, |
|
"learning_rate": 3.720370370370371e-05, |
|
"loss": 0.3233, |
|
"step": 992 |
|
}, |
|
{ |
|
"epoch": 0.331, |
|
"grad_norm": 1.384459137916565, |
|
"learning_rate": 3.718518518518519e-05, |
|
"loss": 0.3349, |
|
"step": 993 |
|
}, |
|
{ |
|
"epoch": 0.3313333333333333, |
|
"grad_norm": 1.7232944965362549, |
|
"learning_rate": 3.7166666666666664e-05, |
|
"loss": 0.3192, |
|
"step": 994 |
|
}, |
|
{ |
|
"epoch": 0.33166666666666667, |
|
"grad_norm": 1.237061619758606, |
|
"learning_rate": 3.714814814814815e-05, |
|
"loss": 0.3508, |
|
"step": 995 |
|
}, |
|
{ |
|
"epoch": 0.332, |
|
"grad_norm": 1.238932490348816, |
|
"learning_rate": 3.712962962962963e-05, |
|
"loss": 0.3306, |
|
"step": 996 |
|
}, |
|
{ |
|
"epoch": 0.3323333333333333, |
|
"grad_norm": 1.179057002067566, |
|
"learning_rate": 3.7111111111111113e-05, |
|
"loss": 0.258, |
|
"step": 997 |
|
}, |
|
{ |
|
"epoch": 0.33266666666666667, |
|
"grad_norm": 1.2349563837051392, |
|
"learning_rate": 3.7092592592592594e-05, |
|
"loss": 0.2826, |
|
"step": 998 |
|
}, |
|
{ |
|
"epoch": 0.333, |
|
"grad_norm": 1.2763677835464478, |
|
"learning_rate": 3.7074074074074075e-05, |
|
"loss": 0.3256, |
|
"step": 999 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 1.5997756719589233, |
|
"learning_rate": 3.705555555555556e-05, |
|
"loss": 0.3034, |
|
"step": 1000 |
|
} |
|
], |
|
"logging_steps": 1.0, |
|
"max_steps": 3000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 1000, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.1551494242304e+20, |
|
"train_batch_size": 34, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|