|
{ |
|
"best_metric": 96.3552306203634, |
|
"best_model_checkpoint": "./checkpoint-10000", |
|
"epoch": 1.0, |
|
"global_step": 10000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.0, |
|
"learning_rate": 6.300000000000001e-08, |
|
"loss": 3.725, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 1.38e-07, |
|
"loss": 3.4054, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 2.13e-07, |
|
"loss": 2.8487, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 2.8800000000000004e-07, |
|
"loss": 2.463, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 3.63e-07, |
|
"loss": 2.2222, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 4.38e-07, |
|
"loss": 1.9688, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 5.13e-07, |
|
"loss": 1.7213, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 5.88e-07, |
|
"loss": 1.513, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 6.63e-07, |
|
"loss": 1.4601, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 7.38e-07, |
|
"loss": 1.2785, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 8.130000000000001e-07, |
|
"loss": 1.2696, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 8.88e-07, |
|
"loss": 1.1418, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 9.630000000000001e-07, |
|
"loss": 1.0683, |
|
"step": 325 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.0379999999999998e-06, |
|
"loss": 0.9947, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.113e-06, |
|
"loss": 0.7466, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.188e-06, |
|
"loss": 0.5656, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.263e-06, |
|
"loss": 0.5229, |
|
"step": 425 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 1.3380000000000001e-06, |
|
"loss": 0.4356, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.4129999999999999e-06, |
|
"loss": 0.4156, |
|
"step": 475 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.488e-06, |
|
"loss": 0.4275, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 1.5630000000000001e-06, |
|
"loss": 0.4084, |
|
"step": 525 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.6380000000000002e-06, |
|
"loss": 0.3992, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.713e-06, |
|
"loss": 0.3611, |
|
"step": 575 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.7879999999999999e-06, |
|
"loss": 0.4012, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 1.863e-06, |
|
"loss": 0.3186, |
|
"step": 625 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 1.938e-06, |
|
"loss": 0.3537, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 2.013e-06, |
|
"loss": 0.3466, |
|
"step": 675 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 2.0879999999999997e-06, |
|
"loss": 0.3459, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 2.163e-06, |
|
"loss": 0.3254, |
|
"step": 725 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 2.238e-06, |
|
"loss": 0.3326, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 2.313e-06, |
|
"loss": 0.3523, |
|
"step": 775 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 2.3880000000000003e-06, |
|
"loss": 0.3412, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 2.463e-06, |
|
"loss": 0.27, |
|
"step": 825 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 2.538e-06, |
|
"loss": 0.3042, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 2.6130000000000002e-06, |
|
"loss": 0.3029, |
|
"step": 875 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 2.688e-06, |
|
"loss": 0.2941, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 2.763e-06, |
|
"loss": 0.3139, |
|
"step": 925 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 2.8379999999999998e-06, |
|
"loss": 0.3081, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 2.913e-06, |
|
"loss": 0.3191, |
|
"step": 975 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 2.988e-06, |
|
"loss": 0.3056, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"eval_loss": 0.26699694991111755, |
|
"eval_runtime": 1222.369, |
|
"eval_samples_per_second": 4.147, |
|
"eval_steps_per_second": 0.259, |
|
"eval_wer": 99.92205139232341, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 2.993e-06, |
|
"loss": 0.3012, |
|
"step": 1025 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 2.984666666666667e-06, |
|
"loss": 0.2914, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 2.9763333333333336e-06, |
|
"loss": 0.273, |
|
"step": 1075 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 2.968e-06, |
|
"loss": 0.2495, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 2.959666666666667e-06, |
|
"loss": 0.3043, |
|
"step": 1125 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 2.9513333333333334e-06, |
|
"loss": 0.2602, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 2.943e-06, |
|
"loss": 0.2372, |
|
"step": 1175 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 2.9346666666666666e-06, |
|
"loss": 0.2534, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 2.9263333333333332e-06, |
|
"loss": 0.2626, |
|
"step": 1225 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 2.9180000000000003e-06, |
|
"loss": 0.2419, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 2.909666666666667e-06, |
|
"loss": 0.2964, |
|
"step": 1275 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 2.9013333333333335e-06, |
|
"loss": 0.2537, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 2.893e-06, |
|
"loss": 0.2582, |
|
"step": 1325 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 2.8846666666666667e-06, |
|
"loss": 0.2706, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 2.8763333333333333e-06, |
|
"loss": 0.2397, |
|
"step": 1375 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 2.868e-06, |
|
"loss": 0.272, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 2.8596666666666665e-06, |
|
"loss": 0.2445, |
|
"step": 1425 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 2.8513333333333335e-06, |
|
"loss": 0.2485, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 2.843e-06, |
|
"loss": 0.2432, |
|
"step": 1475 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 2.8346666666666667e-06, |
|
"loss": 0.2418, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 2.8263333333333333e-06, |
|
"loss": 0.1939, |
|
"step": 1525 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 2.818e-06, |
|
"loss": 0.2328, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 2.809666666666667e-06, |
|
"loss": 0.2047, |
|
"step": 1575 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 2.8013333333333336e-06, |
|
"loss": 0.2064, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 2.793e-06, |
|
"loss": 0.2123, |
|
"step": 1625 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 2.7846666666666664e-06, |
|
"loss": 0.2163, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 2.7763333333333334e-06, |
|
"loss": 0.2008, |
|
"step": 1675 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 2.768e-06, |
|
"loss": 0.2101, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 2.7596666666666666e-06, |
|
"loss": 0.2401, |
|
"step": 1725 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 2.7513333333333332e-06, |
|
"loss": 0.1868, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 2.7430000000000002e-06, |
|
"loss": 0.2091, |
|
"step": 1775 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 2.734666666666667e-06, |
|
"loss": 0.2502, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 2.7263333333333335e-06, |
|
"loss": 0.2209, |
|
"step": 1825 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 2.718e-06, |
|
"loss": 0.2321, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 2.7096666666666667e-06, |
|
"loss": 0.1867, |
|
"step": 1875 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 2.7013333333333337e-06, |
|
"loss": 0.2484, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 2.693e-06, |
|
"loss": 0.1787, |
|
"step": 1925 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 2.6846666666666665e-06, |
|
"loss": 0.1633, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 2.676333333333333e-06, |
|
"loss": 0.2115, |
|
"step": 1975 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 2.668e-06, |
|
"loss": 0.16, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"eval_loss": 0.2321859449148178, |
|
"eval_runtime": 1384.8008, |
|
"eval_samples_per_second": 3.66, |
|
"eval_steps_per_second": 0.229, |
|
"eval_wer": 99.66401462208366, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 2.6596666666666667e-06, |
|
"loss": 0.186, |
|
"step": 2025 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 2.6513333333333333e-06, |
|
"loss": 0.1834, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 2.643e-06, |
|
"loss": 0.2068, |
|
"step": 2075 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 2.634666666666667e-06, |
|
"loss": 0.1432, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 2.6263333333333336e-06, |
|
"loss": 0.1951, |
|
"step": 2125 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 2.618e-06, |
|
"loss": 0.1865, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 2.6096666666666668e-06, |
|
"loss": 0.1427, |
|
"step": 2175 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 2.6013333333333334e-06, |
|
"loss": 0.1865, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 2.593e-06, |
|
"loss": 0.1673, |
|
"step": 2225 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 2.5846666666666666e-06, |
|
"loss": 0.1571, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 2.576333333333333e-06, |
|
"loss": 0.1635, |
|
"step": 2275 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 2.568e-06, |
|
"loss": 0.1462, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 2.559666666666667e-06, |
|
"loss": 0.1581, |
|
"step": 2325 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 2.5513333333333334e-06, |
|
"loss": 0.1592, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 2.543e-06, |
|
"loss": 0.1719, |
|
"step": 2375 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 2.5346666666666667e-06, |
|
"loss": 0.1351, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 2.5263333333333337e-06, |
|
"loss": 0.1577, |
|
"step": 2425 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 2.5180000000000003e-06, |
|
"loss": 0.1927, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 2.509666666666667e-06, |
|
"loss": 0.1617, |
|
"step": 2475 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 2.501333333333333e-06, |
|
"loss": 0.1422, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"learning_rate": 2.493e-06, |
|
"loss": 0.1491, |
|
"step": 2525 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 2.4846666666666667e-06, |
|
"loss": 0.149, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 2.4763333333333333e-06, |
|
"loss": 0.1477, |
|
"step": 2575 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 2.468e-06, |
|
"loss": 0.1665, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 0.26, |
|
"learning_rate": 2.4596666666666665e-06, |
|
"loss": 0.1703, |
|
"step": 2625 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 2.4513333333333336e-06, |
|
"loss": 0.1666, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 2.443e-06, |
|
"loss": 0.1584, |
|
"step": 2675 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 2.4346666666666668e-06, |
|
"loss": 0.199, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 0.27, |
|
"learning_rate": 2.4263333333333334e-06, |
|
"loss": 0.1718, |
|
"step": 2725 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 2.4180000000000004e-06, |
|
"loss": 0.1483, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 2.4096666666666666e-06, |
|
"loss": 0.1611, |
|
"step": 2775 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 2.401333333333333e-06, |
|
"loss": 0.1551, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 2.393e-06, |
|
"loss": 0.1435, |
|
"step": 2825 |
|
}, |
|
{ |
|
"epoch": 0.28, |
|
"learning_rate": 2.384666666666667e-06, |
|
"loss": 0.1772, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 2.3763333333333334e-06, |
|
"loss": 0.1446, |
|
"step": 2875 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 2.368e-06, |
|
"loss": 0.1404, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 2.3596666666666666e-06, |
|
"loss": 0.1424, |
|
"step": 2925 |
|
}, |
|
{ |
|
"epoch": 0.29, |
|
"learning_rate": 2.3513333333333332e-06, |
|
"loss": 0.1839, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 2.3430000000000003e-06, |
|
"loss": 0.1333, |
|
"step": 2975 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 2.334666666666667e-06, |
|
"loss": 0.1309, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"eval_loss": 0.21517059206962585, |
|
"eval_runtime": 1352.8853, |
|
"eval_samples_per_second": 3.747, |
|
"eval_steps_per_second": 0.234, |
|
"eval_wer": 98.97591656811096, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 2.3263333333333335e-06, |
|
"loss": 0.1434, |
|
"step": 3025 |
|
}, |
|
{ |
|
"epoch": 0.3, |
|
"learning_rate": 2.318e-06, |
|
"loss": 0.1525, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 2.3096666666666667e-06, |
|
"loss": 0.14, |
|
"step": 3075 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 2.3013333333333333e-06, |
|
"loss": 0.1579, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 0.31, |
|
"learning_rate": 2.293e-06, |
|
"loss": 0.1599, |
|
"step": 3125 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 2.2846666666666665e-06, |
|
"loss": 0.1388, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 2.2763333333333335e-06, |
|
"loss": 0.1364, |
|
"step": 3175 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 2.268e-06, |
|
"loss": 0.118, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 0.32, |
|
"learning_rate": 2.2596666666666667e-06, |
|
"loss": 0.1226, |
|
"step": 3225 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 2.2513333333333333e-06, |
|
"loss": 0.1304, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 2.243e-06, |
|
"loss": 0.1277, |
|
"step": 3275 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 2.234666666666667e-06, |
|
"loss": 0.1229, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 0.33, |
|
"learning_rate": 2.2263333333333336e-06, |
|
"loss": 0.1199, |
|
"step": 3325 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 2.2179999999999998e-06, |
|
"loss": 0.1397, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 2.209666666666667e-06, |
|
"loss": 0.1065, |
|
"step": 3375 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 2.2013333333333334e-06, |
|
"loss": 0.1409, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 2.193e-06, |
|
"loss": 0.1153, |
|
"step": 3425 |
|
}, |
|
{ |
|
"epoch": 0.34, |
|
"learning_rate": 2.1846666666666666e-06, |
|
"loss": 0.1532, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 2.1763333333333332e-06, |
|
"loss": 0.1456, |
|
"step": 3475 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 2.1680000000000002e-06, |
|
"loss": 0.1694, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 2.159666666666667e-06, |
|
"loss": 0.1485, |
|
"step": 3525 |
|
}, |
|
{ |
|
"epoch": 0.35, |
|
"learning_rate": 2.1513333333333335e-06, |
|
"loss": 0.1345, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 2.143e-06, |
|
"loss": 0.1109, |
|
"step": 3575 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 2.1346666666666667e-06, |
|
"loss": 0.1479, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 2.1263333333333333e-06, |
|
"loss": 0.1002, |
|
"step": 3625 |
|
}, |
|
{ |
|
"epoch": 0.36, |
|
"learning_rate": 2.118e-06, |
|
"loss": 0.1309, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 2.1096666666666665e-06, |
|
"loss": 0.1006, |
|
"step": 3675 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 2.1013333333333335e-06, |
|
"loss": 0.1193, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 0.37, |
|
"learning_rate": 2.093e-06, |
|
"loss": 0.1393, |
|
"step": 3725 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 2.0846666666666667e-06, |
|
"loss": 0.1287, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 2.0763333333333333e-06, |
|
"loss": 0.1142, |
|
"step": 3775 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 2.068e-06, |
|
"loss": 0.1087, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 0.38, |
|
"learning_rate": 2.059666666666667e-06, |
|
"loss": 0.1162, |
|
"step": 3825 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 2.0513333333333336e-06, |
|
"loss": 0.1078, |
|
"step": 3850 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 2.043e-06, |
|
"loss": 0.1379, |
|
"step": 3875 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 2.0346666666666664e-06, |
|
"loss": 0.1121, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 0.39, |
|
"learning_rate": 2.0263333333333334e-06, |
|
"loss": 0.113, |
|
"step": 3925 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 2.018e-06, |
|
"loss": 0.1037, |
|
"step": 3950 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 2.0096666666666666e-06, |
|
"loss": 0.1098, |
|
"step": 3975 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 2.001333333333333e-06, |
|
"loss": 0.097, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"eval_loss": 0.21116237342357635, |
|
"eval_runtime": 1220.3574, |
|
"eval_samples_per_second": 4.154, |
|
"eval_steps_per_second": 0.26, |
|
"eval_wer": 100.0, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"learning_rate": 1.9930000000000002e-06, |
|
"loss": 0.1026, |
|
"step": 4025 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.984666666666667e-06, |
|
"loss": 0.125, |
|
"step": 4050 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.9763333333333334e-06, |
|
"loss": 0.1225, |
|
"step": 4075 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.968e-06, |
|
"loss": 0.1069, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.9596666666666667e-06, |
|
"loss": 0.126, |
|
"step": 4125 |
|
}, |
|
{ |
|
"epoch": 0.41, |
|
"learning_rate": 1.9513333333333337e-06, |
|
"loss": 0.1022, |
|
"step": 4150 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.943e-06, |
|
"loss": 0.1059, |
|
"step": 4175 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.9346666666666665e-06, |
|
"loss": 0.1077, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.926333333333333e-06, |
|
"loss": 0.0921, |
|
"step": 4225 |
|
}, |
|
{ |
|
"epoch": 0.42, |
|
"learning_rate": 1.918e-06, |
|
"loss": 0.0912, |
|
"step": 4250 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.9096666666666667e-06, |
|
"loss": 0.0976, |
|
"step": 4275 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.9013333333333333e-06, |
|
"loss": 0.1273, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.8930000000000001e-06, |
|
"loss": 0.1216, |
|
"step": 4325 |
|
}, |
|
{ |
|
"epoch": 0.43, |
|
"learning_rate": 1.8846666666666667e-06, |
|
"loss": 0.0994, |
|
"step": 4350 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.8763333333333336e-06, |
|
"loss": 0.0991, |
|
"step": 4375 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.8680000000000002e-06, |
|
"loss": 0.1162, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 0.44, |
|
"learning_rate": 1.8596666666666668e-06, |
|
"loss": 0.1113, |
|
"step": 4425 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.8513333333333336e-06, |
|
"loss": 0.0739, |
|
"step": 4450 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.843e-06, |
|
"loss": 0.105, |
|
"step": 4475 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.8346666666666666e-06, |
|
"loss": 0.1444, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 0.45, |
|
"learning_rate": 1.8263333333333334e-06, |
|
"loss": 0.085, |
|
"step": 4525 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.818e-06, |
|
"loss": 0.0942, |
|
"step": 4550 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.8096666666666666e-06, |
|
"loss": 0.1093, |
|
"step": 4575 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.8013333333333334e-06, |
|
"loss": 0.11, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 0.46, |
|
"learning_rate": 1.793e-06, |
|
"loss": 0.1039, |
|
"step": 4625 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.7846666666666668e-06, |
|
"loss": 0.082, |
|
"step": 4650 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.7763333333333335e-06, |
|
"loss": 0.0792, |
|
"step": 4675 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.7680000000000003e-06, |
|
"loss": 0.0712, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.7596666666666669e-06, |
|
"loss": 0.1136, |
|
"step": 4725 |
|
}, |
|
{ |
|
"epoch": 0.47, |
|
"learning_rate": 1.7513333333333333e-06, |
|
"loss": 0.0903, |
|
"step": 4750 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.7429999999999999e-06, |
|
"loss": 0.1031, |
|
"step": 4775 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.7346666666666667e-06, |
|
"loss": 0.1416, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.7263333333333333e-06, |
|
"loss": 0.1094, |
|
"step": 4825 |
|
}, |
|
{ |
|
"epoch": 0.48, |
|
"learning_rate": 1.7180000000000001e-06, |
|
"loss": 0.0996, |
|
"step": 4850 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.7096666666666667e-06, |
|
"loss": 0.0788, |
|
"step": 4875 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.7013333333333333e-06, |
|
"loss": 0.0829, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.6930000000000001e-06, |
|
"loss": 0.1, |
|
"step": 4925 |
|
}, |
|
{ |
|
"epoch": 0.49, |
|
"learning_rate": 1.6846666666666667e-06, |
|
"loss": 0.0823, |
|
"step": 4950 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.6763333333333336e-06, |
|
"loss": 0.0727, |
|
"step": 4975 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.6680000000000002e-06, |
|
"loss": 0.091, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"eval_loss": 0.20941586792469025, |
|
"eval_runtime": 1266.0163, |
|
"eval_samples_per_second": 4.004, |
|
"eval_steps_per_second": 0.25, |
|
"eval_wer": 99.73121169766692, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 0.5, |
|
"learning_rate": 1.6596666666666666e-06, |
|
"loss": 0.1, |
|
"step": 5025 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.6513333333333332e-06, |
|
"loss": 0.07, |
|
"step": 5050 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.643e-06, |
|
"loss": 0.0891, |
|
"step": 5075 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.6346666666666666e-06, |
|
"loss": 0.1067, |
|
"step": 5100 |
|
}, |
|
{ |
|
"epoch": 0.51, |
|
"learning_rate": 1.6263333333333334e-06, |
|
"loss": 0.0738, |
|
"step": 5125 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.618e-06, |
|
"loss": 0.126, |
|
"step": 5150 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.6096666666666668e-06, |
|
"loss": 0.0841, |
|
"step": 5175 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.6013333333333334e-06, |
|
"loss": 0.1258, |
|
"step": 5200 |
|
}, |
|
{ |
|
"epoch": 0.52, |
|
"learning_rate": 1.593e-06, |
|
"loss": 0.1002, |
|
"step": 5225 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.5846666666666669e-06, |
|
"loss": 0.0845, |
|
"step": 5250 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.5763333333333335e-06, |
|
"loss": 0.111, |
|
"step": 5275 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.5679999999999999e-06, |
|
"loss": 0.0896, |
|
"step": 5300 |
|
}, |
|
{ |
|
"epoch": 0.53, |
|
"learning_rate": 1.5596666666666667e-06, |
|
"loss": 0.0874, |
|
"step": 5325 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.5513333333333333e-06, |
|
"loss": 0.0751, |
|
"step": 5350 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.5429999999999999e-06, |
|
"loss": 0.1052, |
|
"step": 5375 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.5346666666666667e-06, |
|
"loss": 0.0872, |
|
"step": 5400 |
|
}, |
|
{ |
|
"epoch": 0.54, |
|
"learning_rate": 1.5263333333333333e-06, |
|
"loss": 0.1238, |
|
"step": 5425 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.5180000000000001e-06, |
|
"loss": 0.0913, |
|
"step": 5450 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.5096666666666667e-06, |
|
"loss": 0.0912, |
|
"step": 5475 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.5013333333333335e-06, |
|
"loss": 0.0696, |
|
"step": 5500 |
|
}, |
|
{ |
|
"epoch": 0.55, |
|
"learning_rate": 1.493e-06, |
|
"loss": 0.0834, |
|
"step": 5525 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.4846666666666668e-06, |
|
"loss": 0.0928, |
|
"step": 5550 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.4763333333333334e-06, |
|
"loss": 0.08, |
|
"step": 5575 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.468e-06, |
|
"loss": 0.0699, |
|
"step": 5600 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.4596666666666668e-06, |
|
"loss": 0.0925, |
|
"step": 5625 |
|
}, |
|
{ |
|
"epoch": 0.56, |
|
"learning_rate": 1.4513333333333334e-06, |
|
"loss": 0.0608, |
|
"step": 5650 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.443e-06, |
|
"loss": 0.076, |
|
"step": 5675 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.4346666666666666e-06, |
|
"loss": 0.0734, |
|
"step": 5700 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.4263333333333334e-06, |
|
"loss": 0.0947, |
|
"step": 5725 |
|
}, |
|
{ |
|
"epoch": 0.57, |
|
"learning_rate": 1.418e-06, |
|
"loss": 0.0787, |
|
"step": 5750 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.4096666666666668e-06, |
|
"loss": 0.0726, |
|
"step": 5775 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.4013333333333332e-06, |
|
"loss": 0.0842, |
|
"step": 5800 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.393e-06, |
|
"loss": 0.0735, |
|
"step": 5825 |
|
}, |
|
{ |
|
"epoch": 0.58, |
|
"learning_rate": 1.3846666666666667e-06, |
|
"loss": 0.074, |
|
"step": 5850 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.3763333333333335e-06, |
|
"loss": 0.0665, |
|
"step": 5875 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.368e-06, |
|
"loss": 0.063, |
|
"step": 5900 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.3596666666666667e-06, |
|
"loss": 0.0649, |
|
"step": 5925 |
|
}, |
|
{ |
|
"epoch": 0.59, |
|
"learning_rate": 1.3513333333333333e-06, |
|
"loss": 0.0676, |
|
"step": 5950 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.343e-06, |
|
"loss": 0.0839, |
|
"step": 5975 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.3346666666666667e-06, |
|
"loss": 0.1098, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"eval_loss": 0.20975229144096375, |
|
"eval_runtime": 1408.4914, |
|
"eval_samples_per_second": 3.599, |
|
"eval_steps_per_second": 0.225, |
|
"eval_wer": 98.60767659391463, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.3263333333333333e-06, |
|
"loss": 0.069, |
|
"step": 6025 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"learning_rate": 1.3180000000000001e-06, |
|
"loss": 0.0883, |
|
"step": 6050 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.3096666666666665e-06, |
|
"loss": 0.0805, |
|
"step": 6075 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.3013333333333333e-06, |
|
"loss": 0.0761, |
|
"step": 6100 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.293e-06, |
|
"loss": 0.0667, |
|
"step": 6125 |
|
}, |
|
{ |
|
"epoch": 0.61, |
|
"learning_rate": 1.2846666666666668e-06, |
|
"loss": 0.0743, |
|
"step": 6150 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.2763333333333334e-06, |
|
"loss": 0.0821, |
|
"step": 6175 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.2680000000000002e-06, |
|
"loss": 0.0709, |
|
"step": 6200 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.2596666666666666e-06, |
|
"loss": 0.0818, |
|
"step": 6225 |
|
}, |
|
{ |
|
"epoch": 0.62, |
|
"learning_rate": 1.2513333333333334e-06, |
|
"loss": 0.0684, |
|
"step": 6250 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.243e-06, |
|
"loss": 0.0965, |
|
"step": 6275 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.2346666666666668e-06, |
|
"loss": 0.0737, |
|
"step": 6300 |
|
}, |
|
{ |
|
"epoch": 0.63, |
|
"learning_rate": 1.2263333333333334e-06, |
|
"loss": 0.0835, |
|
"step": 6325 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.218e-06, |
|
"loss": 0.0602, |
|
"step": 6350 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.2096666666666666e-06, |
|
"loss": 0.08, |
|
"step": 6375 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.2013333333333332e-06, |
|
"loss": 0.0785, |
|
"step": 6400 |
|
}, |
|
{ |
|
"epoch": 0.64, |
|
"learning_rate": 1.193e-06, |
|
"loss": 0.0685, |
|
"step": 6425 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1846666666666667e-06, |
|
"loss": 0.078, |
|
"step": 6450 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1763333333333335e-06, |
|
"loss": 0.0749, |
|
"step": 6475 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1679999999999999e-06, |
|
"loss": 0.0656, |
|
"step": 6500 |
|
}, |
|
{ |
|
"epoch": 0.65, |
|
"learning_rate": 1.1596666666666667e-06, |
|
"loss": 0.0654, |
|
"step": 6525 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.1513333333333333e-06, |
|
"loss": 0.0572, |
|
"step": 6550 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.1430000000000001e-06, |
|
"loss": 0.0534, |
|
"step": 6575 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.1346666666666667e-06, |
|
"loss": 0.0619, |
|
"step": 6600 |
|
}, |
|
{ |
|
"epoch": 0.66, |
|
"learning_rate": 1.1263333333333335e-06, |
|
"loss": 0.0737, |
|
"step": 6625 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.118e-06, |
|
"loss": 0.0734, |
|
"step": 6650 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.1096666666666667e-06, |
|
"loss": 0.056, |
|
"step": 6675 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.1013333333333333e-06, |
|
"loss": 0.0664, |
|
"step": 6700 |
|
}, |
|
{ |
|
"epoch": 0.67, |
|
"learning_rate": 1.093e-06, |
|
"loss": 0.0667, |
|
"step": 6725 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.0846666666666668e-06, |
|
"loss": 0.0665, |
|
"step": 6750 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.0763333333333334e-06, |
|
"loss": 0.0717, |
|
"step": 6775 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.068e-06, |
|
"loss": 0.0777, |
|
"step": 6800 |
|
}, |
|
{ |
|
"epoch": 0.68, |
|
"learning_rate": 1.0596666666666666e-06, |
|
"loss": 0.0744, |
|
"step": 6825 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.0513333333333334e-06, |
|
"loss": 0.0878, |
|
"step": 6850 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.043e-06, |
|
"loss": 0.0753, |
|
"step": 6875 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.0346666666666668e-06, |
|
"loss": 0.0846, |
|
"step": 6900 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.0263333333333332e-06, |
|
"loss": 0.0899, |
|
"step": 6925 |
|
}, |
|
{ |
|
"epoch": 0.69, |
|
"learning_rate": 1.018e-06, |
|
"loss": 0.0718, |
|
"step": 6950 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.0096666666666666e-06, |
|
"loss": 0.0727, |
|
"step": 6975 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 1.0013333333333335e-06, |
|
"loss": 0.0637, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"eval_loss": 0.21482323110103607, |
|
"eval_runtime": 1393.5273, |
|
"eval_samples_per_second": 3.638, |
|
"eval_steps_per_second": 0.227, |
|
"eval_wer": 98.46253091065476, |
|
"step": 7000 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 9.93e-07, |
|
"loss": 0.0691, |
|
"step": 7025 |
|
}, |
|
{ |
|
"epoch": 0.7, |
|
"learning_rate": 9.846666666666667e-07, |
|
"loss": 0.0751, |
|
"step": 7050 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 9.763333333333333e-07, |
|
"loss": 0.0626, |
|
"step": 7075 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 9.68e-07, |
|
"loss": 0.0654, |
|
"step": 7100 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 9.596666666666667e-07, |
|
"loss": 0.0711, |
|
"step": 7125 |
|
}, |
|
{ |
|
"epoch": 0.71, |
|
"learning_rate": 9.513333333333334e-07, |
|
"loss": 0.0795, |
|
"step": 7150 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 9.430000000000001e-07, |
|
"loss": 0.0674, |
|
"step": 7175 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 9.346666666666666e-07, |
|
"loss": 0.0488, |
|
"step": 7200 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 9.263333333333333e-07, |
|
"loss": 0.0677, |
|
"step": 7225 |
|
}, |
|
{ |
|
"epoch": 0.72, |
|
"learning_rate": 9.18e-07, |
|
"loss": 0.0538, |
|
"step": 7250 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 9.096666666666668e-07, |
|
"loss": 0.0708, |
|
"step": 7275 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 9.013333333333334e-07, |
|
"loss": 0.0598, |
|
"step": 7300 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 8.930000000000001e-07, |
|
"loss": 0.0641, |
|
"step": 7325 |
|
}, |
|
{ |
|
"epoch": 0.73, |
|
"learning_rate": 8.846666666666667e-07, |
|
"loss": 0.0548, |
|
"step": 7350 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 8.763333333333333e-07, |
|
"loss": 0.0613, |
|
"step": 7375 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 8.68e-07, |
|
"loss": 0.0623, |
|
"step": 7400 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 8.596666666666667e-07, |
|
"loss": 0.0575, |
|
"step": 7425 |
|
}, |
|
{ |
|
"epoch": 0.74, |
|
"learning_rate": 8.513333333333334e-07, |
|
"loss": 0.0479, |
|
"step": 7450 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 8.430000000000001e-07, |
|
"loss": 0.0644, |
|
"step": 7475 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 8.346666666666666e-07, |
|
"loss": 0.0624, |
|
"step": 7500 |
|
}, |
|
{ |
|
"epoch": 0.75, |
|
"learning_rate": 8.263333333333333e-07, |
|
"loss": 0.0593, |
|
"step": 7525 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 8.18e-07, |
|
"loss": 0.0528, |
|
"step": 7550 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 8.096666666666668e-07, |
|
"loss": 0.0546, |
|
"step": 7575 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 8.013333333333335e-07, |
|
"loss": 0.0583, |
|
"step": 7600 |
|
}, |
|
{ |
|
"epoch": 0.76, |
|
"learning_rate": 7.93e-07, |
|
"loss": 0.0491, |
|
"step": 7625 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 7.846666666666667e-07, |
|
"loss": 0.0547, |
|
"step": 7650 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 7.763333333333334e-07, |
|
"loss": 0.0667, |
|
"step": 7675 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 7.68e-07, |
|
"loss": 0.0624, |
|
"step": 7700 |
|
}, |
|
{ |
|
"epoch": 0.77, |
|
"learning_rate": 7.596666666666667e-07, |
|
"loss": 0.0697, |
|
"step": 7725 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 7.513333333333334e-07, |
|
"loss": 0.0551, |
|
"step": 7750 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 7.43e-07, |
|
"loss": 0.0615, |
|
"step": 7775 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 7.346666666666666e-07, |
|
"loss": 0.0556, |
|
"step": 7800 |
|
}, |
|
{ |
|
"epoch": 0.78, |
|
"learning_rate": 7.263333333333333e-07, |
|
"loss": 0.0505, |
|
"step": 7825 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 7.18e-07, |
|
"loss": 0.0701, |
|
"step": 7850 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 7.096666666666667e-07, |
|
"loss": 0.055, |
|
"step": 7875 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 7.013333333333334e-07, |
|
"loss": 0.0495, |
|
"step": 7900 |
|
}, |
|
{ |
|
"epoch": 0.79, |
|
"learning_rate": 6.930000000000001e-07, |
|
"loss": 0.0649, |
|
"step": 7925 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 6.846666666666667e-07, |
|
"loss": 0.0556, |
|
"step": 7950 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 6.763333333333334e-07, |
|
"loss": 0.0761, |
|
"step": 7975 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 6.680000000000001e-07, |
|
"loss": 0.0718, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"eval_loss": 0.21514323353767395, |
|
"eval_runtime": 1235.5071, |
|
"eval_samples_per_second": 4.103, |
|
"eval_steps_per_second": 0.257, |
|
"eval_wer": 99.87098161488012, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.8, |
|
"learning_rate": 6.596666666666667e-07, |
|
"loss": 0.0477, |
|
"step": 8025 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 6.513333333333333e-07, |
|
"loss": 0.0578, |
|
"step": 8050 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 6.43e-07, |
|
"loss": 0.0536, |
|
"step": 8075 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 6.346666666666666e-07, |
|
"loss": 0.0547, |
|
"step": 8100 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 6.263333333333333e-07, |
|
"loss": 0.0666, |
|
"step": 8125 |
|
}, |
|
{ |
|
"epoch": 0.81, |
|
"learning_rate": 6.18e-07, |
|
"loss": 0.0666, |
|
"step": 8150 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 6.096666666666667e-07, |
|
"loss": 0.0731, |
|
"step": 8175 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 6.013333333333334e-07, |
|
"loss": 0.0554, |
|
"step": 8200 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 5.93e-07, |
|
"loss": 0.0398, |
|
"step": 8225 |
|
}, |
|
{ |
|
"epoch": 0.82, |
|
"learning_rate": 5.846666666666667e-07, |
|
"loss": 0.0408, |
|
"step": 8250 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 5.763333333333334e-07, |
|
"loss": 0.0545, |
|
"step": 8275 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 5.68e-07, |
|
"loss": 0.0604, |
|
"step": 8300 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 5.596666666666667e-07, |
|
"loss": 0.0505, |
|
"step": 8325 |
|
}, |
|
{ |
|
"epoch": 0.83, |
|
"learning_rate": 5.513333333333334e-07, |
|
"loss": 0.037, |
|
"step": 8350 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 5.43e-07, |
|
"loss": 0.0626, |
|
"step": 8375 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 5.346666666666667e-07, |
|
"loss": 0.0577, |
|
"step": 8400 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 5.263333333333333e-07, |
|
"loss": 0.0579, |
|
"step": 8425 |
|
}, |
|
{ |
|
"epoch": 0.84, |
|
"learning_rate": 5.18e-07, |
|
"loss": 0.0607, |
|
"step": 8450 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 5.096666666666667e-07, |
|
"loss": 0.052, |
|
"step": 8475 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 5.013333333333333e-07, |
|
"loss": 0.0535, |
|
"step": 8500 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 4.93e-07, |
|
"loss": 0.0687, |
|
"step": 8525 |
|
}, |
|
{ |
|
"epoch": 0.85, |
|
"learning_rate": 4.846666666666667e-07, |
|
"loss": 0.0488, |
|
"step": 8550 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 4.763333333333333e-07, |
|
"loss": 0.0567, |
|
"step": 8575 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 4.68e-07, |
|
"loss": 0.0824, |
|
"step": 8600 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 4.596666666666667e-07, |
|
"loss": 0.0653, |
|
"step": 8625 |
|
}, |
|
{ |
|
"epoch": 0.86, |
|
"learning_rate": 4.513333333333333e-07, |
|
"loss": 0.051, |
|
"step": 8650 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 4.4300000000000004e-07, |
|
"loss": 0.0489, |
|
"step": 8675 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 4.346666666666667e-07, |
|
"loss": 0.0637, |
|
"step": 8700 |
|
}, |
|
{ |
|
"epoch": 0.87, |
|
"learning_rate": 4.263333333333333e-07, |
|
"loss": 0.0588, |
|
"step": 8725 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 4.18e-07, |
|
"loss": 0.0625, |
|
"step": 8750 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 4.096666666666667e-07, |
|
"loss": 0.062, |
|
"step": 8775 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 4.0133333333333333e-07, |
|
"loss": 0.0636, |
|
"step": 8800 |
|
}, |
|
{ |
|
"epoch": 0.88, |
|
"learning_rate": 3.9300000000000004e-07, |
|
"loss": 0.0386, |
|
"step": 8825 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 3.8466666666666664e-07, |
|
"loss": 0.0512, |
|
"step": 8850 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 3.7633333333333335e-07, |
|
"loss": 0.058, |
|
"step": 8875 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 3.68e-07, |
|
"loss": 0.0421, |
|
"step": 8900 |
|
}, |
|
{ |
|
"epoch": 0.89, |
|
"learning_rate": 3.5966666666666667e-07, |
|
"loss": 0.0641, |
|
"step": 8925 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 3.5133333333333333e-07, |
|
"loss": 0.0408, |
|
"step": 8950 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 3.43e-07, |
|
"loss": 0.0585, |
|
"step": 8975 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 3.346666666666667e-07, |
|
"loss": 0.0517, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"eval_loss": 0.21751222014427185, |
|
"eval_runtime": 1503.9406, |
|
"eval_samples_per_second": 3.37, |
|
"eval_steps_per_second": 0.211, |
|
"eval_wer": 97.23416836899258, |
|
"step": 9000 |
|
}, |
|
{ |
|
"epoch": 0.9, |
|
"learning_rate": 3.2633333333333336e-07, |
|
"loss": 0.0478, |
|
"step": 9025 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 3.18e-07, |
|
"loss": 0.0454, |
|
"step": 9050 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 3.0966666666666667e-07, |
|
"loss": 0.0538, |
|
"step": 9075 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 3.0133333333333333e-07, |
|
"loss": 0.0597, |
|
"step": 9100 |
|
}, |
|
{ |
|
"epoch": 0.91, |
|
"learning_rate": 2.93e-07, |
|
"loss": 0.0404, |
|
"step": 9125 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 2.8466666666666665e-07, |
|
"loss": 0.0521, |
|
"step": 9150 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 2.7633333333333336e-07, |
|
"loss": 0.0491, |
|
"step": 9175 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 2.68e-07, |
|
"loss": 0.0522, |
|
"step": 9200 |
|
}, |
|
{ |
|
"epoch": 0.92, |
|
"learning_rate": 2.596666666666667e-07, |
|
"loss": 0.0383, |
|
"step": 9225 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 2.5133333333333333e-07, |
|
"loss": 0.0426, |
|
"step": 9250 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 2.43e-07, |
|
"loss": 0.0396, |
|
"step": 9275 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 2.3466666666666668e-07, |
|
"loss": 0.0403, |
|
"step": 9300 |
|
}, |
|
{ |
|
"epoch": 0.93, |
|
"learning_rate": 2.2633333333333334e-07, |
|
"loss": 0.052, |
|
"step": 9325 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 2.1800000000000002e-07, |
|
"loss": 0.0475, |
|
"step": 9350 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 2.0966666666666668e-07, |
|
"loss": 0.0497, |
|
"step": 9375 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 2.0133333333333334e-07, |
|
"loss": 0.0549, |
|
"step": 9400 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 1.9300000000000002e-07, |
|
"loss": 0.0422, |
|
"step": 9425 |
|
}, |
|
{ |
|
"epoch": 0.94, |
|
"learning_rate": 1.8466666666666668e-07, |
|
"loss": 0.0648, |
|
"step": 9450 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 1.7633333333333334e-07, |
|
"loss": 0.0499, |
|
"step": 9475 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 1.68e-07, |
|
"loss": 0.0541, |
|
"step": 9500 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 1.5966666666666665e-07, |
|
"loss": 0.0683, |
|
"step": 9525 |
|
}, |
|
{ |
|
"epoch": 0.95, |
|
"learning_rate": 1.5133333333333334e-07, |
|
"loss": 0.0598, |
|
"step": 9550 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 1.4300000000000002e-07, |
|
"loss": 0.0577, |
|
"step": 9575 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 1.3466666666666665e-07, |
|
"loss": 0.0495, |
|
"step": 9600 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 1.2633333333333334e-07, |
|
"loss": 0.0744, |
|
"step": 9625 |
|
}, |
|
{ |
|
"epoch": 0.96, |
|
"learning_rate": 1.18e-07, |
|
"loss": 0.0439, |
|
"step": 9650 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 1.0966666666666667e-07, |
|
"loss": 0.0563, |
|
"step": 9675 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 1.0133333333333333e-07, |
|
"loss": 0.0409, |
|
"step": 9700 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 9.3e-08, |
|
"loss": 0.0495, |
|
"step": 9725 |
|
}, |
|
{ |
|
"epoch": 0.97, |
|
"learning_rate": 8.466666666666667e-08, |
|
"loss": 0.0605, |
|
"step": 9750 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 7.633333333333333e-08, |
|
"loss": 0.0453, |
|
"step": 9775 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 6.8e-08, |
|
"loss": 0.0562, |
|
"step": 9800 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 5.966666666666667e-08, |
|
"loss": 0.0637, |
|
"step": 9825 |
|
}, |
|
{ |
|
"epoch": 0.98, |
|
"learning_rate": 5.1333333333333336e-08, |
|
"loss": 0.0628, |
|
"step": 9850 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 4.3e-08, |
|
"loss": 0.0515, |
|
"step": 9875 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 3.4666666666666666e-08, |
|
"loss": 0.0414, |
|
"step": 9900 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 2.6333333333333338e-08, |
|
"loss": 0.0389, |
|
"step": 9925 |
|
}, |
|
{ |
|
"epoch": 0.99, |
|
"learning_rate": 1.8000000000000002e-08, |
|
"loss": 0.0418, |
|
"step": 9950 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 9.666666666666667e-09, |
|
"loss": 0.0671, |
|
"step": 9975 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 1.3333333333333335e-09, |
|
"loss": 0.0465, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"eval_loss": 0.21289274096488953, |
|
"eval_runtime": 1568.1462, |
|
"eval_samples_per_second": 3.232, |
|
"eval_steps_per_second": 0.202, |
|
"eval_wer": 96.3552306203634, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"step": 10000, |
|
"total_flos": 3.265935704064e+20, |
|
"train_loss": 0.1878067800462246, |
|
"train_runtime": 88987.8066, |
|
"train_samples_per_second": 3.596, |
|
"train_steps_per_second": 0.112 |
|
} |
|
], |
|
"max_steps": 10000, |
|
"num_train_epochs": 9223372036854775807, |
|
"total_flos": 3.265935704064e+20, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|