UltimoUno commited on
Commit
c73a8e4
1 Parent(s): d1f458b

Uploaded checkpoint-1000

Browse files
Files changed (5) hide show
  1. model.safetensors +1 -1
  2. optimizer.pt +1 -1
  3. rng_state.pth +1 -1
  4. scheduler.pt +1 -1
  5. trainer_state.json +361 -3
model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:ce23886c655ee1c47a0aa80c029c82dfc420d2de4c463cf7749e3260e157c741
3
  size 2836579040
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8df485eb75151b4fd00a3914576c95caa2a4214411c302f7113d6a4831144454
3
  size 2836579040
optimizer.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:e5599d51e2bd2e74a84a4f9d836728c794d17a83e97511705b560c34e2990bd4
3
  size 5673376169
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:52e9570865255edc3f55eef0b128972d229c4c97ad97fc3a60d5756a99aa199f
3
  size 5673376169
rng_state.pth CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:4331db6fde055daaa387d6b31fd8eec31f21908a09d4d37a76fd41feb521f465
3
  size 14244
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8c56c0d986fde7ce77bd50cb0ad4046e46bf3f78895b338e63f9217f7a569a8e
3
  size 14244
scheduler.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:08700a617eca3873937a04b3a836821cf0c2c003eb33be7c9039ba1cfd407652
3
  size 1064
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:272d676176cdbddc5daf2f8ea3e18426236c64ba24db10d25daf8b1d8d4e924b
3
  size 1064
trainer_state.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
  "best_metric": null,
3
  "best_model_checkpoint": null,
4
- "epoch": 0.025,
5
  "eval_steps": 500,
6
- "global_step": 500,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
@@ -365,6 +365,364 @@
365
  "eval_samples_per_second": 15.31,
366
  "eval_steps_per_second": 15.31,
367
  "step": 500
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
368
  }
369
  ],
370
  "logging_steps": 10,
@@ -372,7 +730,7 @@
372
  "num_input_tokens_seen": 0,
373
  "num_train_epochs": 1,
374
  "save_steps": 500,
375
- "total_flos": 8069610209280000.0,
376
  "train_batch_size": 1,
377
  "trial_name": null,
378
  "trial_params": null
 
1
  {
2
  "best_metric": null,
3
  "best_model_checkpoint": null,
4
+ "epoch": 0.05,
5
  "eval_steps": 500,
6
+ "global_step": 1000,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
 
365
  "eval_samples_per_second": 15.31,
366
  "eval_steps_per_second": 15.31,
367
  "step": 500
368
+ },
369
+ {
370
+ "epoch": 0.03,
371
+ "grad_norm": 77.5,
372
+ "learning_rate": 9.933333333333333e-07,
373
+ "loss": 6.4003,
374
+ "step": 510
375
+ },
376
+ {
377
+ "epoch": 0.03,
378
+ "grad_norm": 77.5,
379
+ "learning_rate": 9.866666666666666e-07,
380
+ "loss": 6.2969,
381
+ "step": 520
382
+ },
383
+ {
384
+ "epoch": 0.03,
385
+ "grad_norm": 78.5,
386
+ "learning_rate": 9.8e-07,
387
+ "loss": 6.19,
388
+ "step": 530
389
+ },
390
+ {
391
+ "epoch": 0.03,
392
+ "grad_norm": 78.0,
393
+ "learning_rate": 9.733333333333333e-07,
394
+ "loss": 6.0401,
395
+ "step": 540
396
+ },
397
+ {
398
+ "epoch": 0.03,
399
+ "grad_norm": 79.0,
400
+ "learning_rate": 9.666666666666666e-07,
401
+ "loss": 5.9727,
402
+ "step": 550
403
+ },
404
+ {
405
+ "epoch": 0.03,
406
+ "grad_norm": 80.0,
407
+ "learning_rate": 9.6e-07,
408
+ "loss": 5.821,
409
+ "step": 560
410
+ },
411
+ {
412
+ "epoch": 0.03,
413
+ "grad_norm": 80.5,
414
+ "learning_rate": 9.533333333333333e-07,
415
+ "loss": 5.6864,
416
+ "step": 570
417
+ },
418
+ {
419
+ "epoch": 0.03,
420
+ "grad_norm": 80.5,
421
+ "learning_rate": 9.466666666666666e-07,
422
+ "loss": 5.5677,
423
+ "step": 580
424
+ },
425
+ {
426
+ "epoch": 0.03,
427
+ "grad_norm": 81.5,
428
+ "learning_rate": 9.399999999999999e-07,
429
+ "loss": 5.4587,
430
+ "step": 590
431
+ },
432
+ {
433
+ "epoch": 0.03,
434
+ "grad_norm": 82.0,
435
+ "learning_rate": 9.333333333333333e-07,
436
+ "loss": 5.3674,
437
+ "step": 600
438
+ },
439
+ {
440
+ "epoch": 0.03,
441
+ "grad_norm": 83.5,
442
+ "learning_rate": 9.266666666666665e-07,
443
+ "loss": 5.2343,
444
+ "step": 610
445
+ },
446
+ {
447
+ "epoch": 0.03,
448
+ "grad_norm": 83.5,
449
+ "learning_rate": 9.2e-07,
450
+ "loss": 5.1118,
451
+ "step": 620
452
+ },
453
+ {
454
+ "epoch": 0.03,
455
+ "grad_norm": 83.5,
456
+ "learning_rate": 9.133333333333333e-07,
457
+ "loss": 5.0416,
458
+ "step": 630
459
+ },
460
+ {
461
+ "epoch": 0.03,
462
+ "grad_norm": 85.5,
463
+ "learning_rate": 9.066666666666665e-07,
464
+ "loss": 4.9311,
465
+ "step": 640
466
+ },
467
+ {
468
+ "epoch": 0.03,
469
+ "grad_norm": 86.0,
470
+ "learning_rate": 9e-07,
471
+ "loss": 4.8409,
472
+ "step": 650
473
+ },
474
+ {
475
+ "epoch": 0.03,
476
+ "grad_norm": 86.5,
477
+ "learning_rate": 8.933333333333333e-07,
478
+ "loss": 4.7077,
479
+ "step": 660
480
+ },
481
+ {
482
+ "epoch": 0.03,
483
+ "grad_norm": 87.5,
484
+ "learning_rate": 8.866666666666667e-07,
485
+ "loss": 4.6436,
486
+ "step": 670
487
+ },
488
+ {
489
+ "epoch": 0.03,
490
+ "grad_norm": 86.0,
491
+ "learning_rate": 8.799999999999999e-07,
492
+ "loss": 4.5543,
493
+ "step": 680
494
+ },
495
+ {
496
+ "epoch": 0.03,
497
+ "grad_norm": 87.0,
498
+ "learning_rate": 8.733333333333333e-07,
499
+ "loss": 4.473,
500
+ "step": 690
501
+ },
502
+ {
503
+ "epoch": 0.04,
504
+ "grad_norm": 87.0,
505
+ "learning_rate": 8.666666666666667e-07,
506
+ "loss": 4.373,
507
+ "step": 700
508
+ },
509
+ {
510
+ "epoch": 0.04,
511
+ "grad_norm": 88.5,
512
+ "learning_rate": 8.599999999999999e-07,
513
+ "loss": 4.3226,
514
+ "step": 710
515
+ },
516
+ {
517
+ "epoch": 0.04,
518
+ "grad_norm": 87.5,
519
+ "learning_rate": 8.533333333333334e-07,
520
+ "loss": 4.2063,
521
+ "step": 720
522
+ },
523
+ {
524
+ "epoch": 0.04,
525
+ "grad_norm": 87.5,
526
+ "learning_rate": 8.466666666666667e-07,
527
+ "loss": 4.1628,
528
+ "step": 730
529
+ },
530
+ {
531
+ "epoch": 0.04,
532
+ "grad_norm": 86.5,
533
+ "learning_rate": 8.399999999999999e-07,
534
+ "loss": 4.0588,
535
+ "step": 740
536
+ },
537
+ {
538
+ "epoch": 0.04,
539
+ "grad_norm": 88.0,
540
+ "learning_rate": 8.333333333333333e-07,
541
+ "loss": 4.0117,
542
+ "step": 750
543
+ },
544
+ {
545
+ "epoch": 0.04,
546
+ "grad_norm": 88.0,
547
+ "learning_rate": 8.266666666666667e-07,
548
+ "loss": 3.9443,
549
+ "step": 760
550
+ },
551
+ {
552
+ "epoch": 0.04,
553
+ "grad_norm": 88.5,
554
+ "learning_rate": 8.199999999999999e-07,
555
+ "loss": 3.8509,
556
+ "step": 770
557
+ },
558
+ {
559
+ "epoch": 0.04,
560
+ "grad_norm": 88.0,
561
+ "learning_rate": 8.133333333333333e-07,
562
+ "loss": 3.7851,
563
+ "step": 780
564
+ },
565
+ {
566
+ "epoch": 0.04,
567
+ "grad_norm": 87.5,
568
+ "learning_rate": 8.066666666666666e-07,
569
+ "loss": 3.7559,
570
+ "step": 790
571
+ },
572
+ {
573
+ "epoch": 0.04,
574
+ "grad_norm": 87.0,
575
+ "learning_rate": 8e-07,
576
+ "loss": 3.6867,
577
+ "step": 800
578
+ },
579
+ {
580
+ "epoch": 0.04,
581
+ "grad_norm": 88.0,
582
+ "learning_rate": 7.933333333333333e-07,
583
+ "loss": 3.6217,
584
+ "step": 810
585
+ },
586
+ {
587
+ "epoch": 0.04,
588
+ "grad_norm": 86.5,
589
+ "learning_rate": 7.866666666666666e-07,
590
+ "loss": 3.5678,
591
+ "step": 820
592
+ },
593
+ {
594
+ "epoch": 0.04,
595
+ "grad_norm": 86.5,
596
+ "learning_rate": 7.799999999999999e-07,
597
+ "loss": 3.5387,
598
+ "step": 830
599
+ },
600
+ {
601
+ "epoch": 0.04,
602
+ "grad_norm": 86.5,
603
+ "learning_rate": 7.733333333333333e-07,
604
+ "loss": 3.4999,
605
+ "step": 840
606
+ },
607
+ {
608
+ "epoch": 0.04,
609
+ "grad_norm": 87.0,
610
+ "learning_rate": 7.666666666666667e-07,
611
+ "loss": 3.4263,
612
+ "step": 850
613
+ },
614
+ {
615
+ "epoch": 0.04,
616
+ "grad_norm": 87.0,
617
+ "learning_rate": 7.599999999999999e-07,
618
+ "loss": 3.4185,
619
+ "step": 860
620
+ },
621
+ {
622
+ "epoch": 0.04,
623
+ "grad_norm": 86.0,
624
+ "learning_rate": 7.533333333333332e-07,
625
+ "loss": 3.3753,
626
+ "step": 870
627
+ },
628
+ {
629
+ "epoch": 0.04,
630
+ "grad_norm": 86.0,
631
+ "learning_rate": 7.466666666666667e-07,
632
+ "loss": 3.318,
633
+ "step": 880
634
+ },
635
+ {
636
+ "epoch": 0.04,
637
+ "grad_norm": 85.5,
638
+ "learning_rate": 7.4e-07,
639
+ "loss": 3.2846,
640
+ "step": 890
641
+ },
642
+ {
643
+ "epoch": 0.04,
644
+ "grad_norm": 86.5,
645
+ "learning_rate": 7.333333333333332e-07,
646
+ "loss": 3.2757,
647
+ "step": 900
648
+ },
649
+ {
650
+ "epoch": 0.05,
651
+ "grad_norm": 85.0,
652
+ "learning_rate": 7.266666666666667e-07,
653
+ "loss": 3.2204,
654
+ "step": 910
655
+ },
656
+ {
657
+ "epoch": 0.05,
658
+ "grad_norm": 87.0,
659
+ "learning_rate": 7.2e-07,
660
+ "loss": 3.1933,
661
+ "step": 920
662
+ },
663
+ {
664
+ "epoch": 0.05,
665
+ "grad_norm": 85.0,
666
+ "learning_rate": 7.133333333333333e-07,
667
+ "loss": 3.1404,
668
+ "step": 930
669
+ },
670
+ {
671
+ "epoch": 0.05,
672
+ "grad_norm": 84.5,
673
+ "learning_rate": 7.066666666666666e-07,
674
+ "loss": 3.1084,
675
+ "step": 940
676
+ },
677
+ {
678
+ "epoch": 0.05,
679
+ "grad_norm": 83.5,
680
+ "learning_rate": 7e-07,
681
+ "loss": 3.0518,
682
+ "step": 950
683
+ },
684
+ {
685
+ "epoch": 0.05,
686
+ "grad_norm": 84.5,
687
+ "learning_rate": 6.933333333333333e-07,
688
+ "loss": 3.0331,
689
+ "step": 960
690
+ },
691
+ {
692
+ "epoch": 0.05,
693
+ "grad_norm": 84.0,
694
+ "learning_rate": 6.866666666666666e-07,
695
+ "loss": 3.0252,
696
+ "step": 970
697
+ },
698
+ {
699
+ "epoch": 0.05,
700
+ "grad_norm": 83.0,
701
+ "learning_rate": 6.800000000000001e-07,
702
+ "loss": 2.9718,
703
+ "step": 980
704
+ },
705
+ {
706
+ "epoch": 0.05,
707
+ "grad_norm": 84.0,
708
+ "learning_rate": 6.733333333333333e-07,
709
+ "loss": 2.9666,
710
+ "step": 990
711
+ },
712
+ {
713
+ "epoch": 0.05,
714
+ "grad_norm": 82.0,
715
+ "learning_rate": 6.666666666666666e-07,
716
+ "loss": 2.9071,
717
+ "step": 1000
718
+ },
719
+ {
720
+ "epoch": 0.05,
721
+ "eval_loss": 2.927218437194824,
722
+ "eval_runtime": 65.2971,
723
+ "eval_samples_per_second": 15.315,
724
+ "eval_steps_per_second": 15.315,
725
+ "step": 1000
726
  }
727
  ],
728
  "logging_steps": 10,
 
730
  "num_input_tokens_seen": 0,
731
  "num_train_epochs": 1,
732
  "save_steps": 500,
733
+ "total_flos": 1.613922041856e+16,
734
  "train_batch_size": 1,
735
  "trial_name": null,
736
  "trial_params": null