jdannem6 commited on
Commit
1461024
·
verified ·
1 Parent(s): ef584b0

Uploaded checkpoint-2000

Browse files
adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:9506707d190c9846d953b1721120642c7060403907ba3bee15a8c1cc0a3efe94
3
  size 119975656
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:50d2f514d1ee6b0e7ce28f64d5a4e1916a7689f3d03988ccaaf01ddc681f06c9
3
  size 119975656
optimizer.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:d2047b6c642969d6c06ec76f0d26f23bdfac7da425311985adcbcbf11c97a994
3
  size 240145026
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3e8367697b098ded08ded1effbef54828ede789ca57503a8b7bd0f4d7a130c65
3
  size 240145026
rng_state.pth CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:e6757b3664e681248dd0b7f0adf41683e511d900c1d79f0636a9ea13d529e49b
3
  size 14244
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:00b2d8ce9c47af2735f9fc373d1aa74a8815666d3e7d1d7b5a7c6a3fa49ef6fe
3
  size 14244
scheduler.pt CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:8c69e416a1c1c7cfbd03505995e73f15a3c32b1cc0b0dc09a821d33b4e92286e
3
  size 1064
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:78180a777fabc8bdc6e37d70a05529fbfe5bbeb093c49dd0124cc2bdeb32db78
3
  size 1064
trainer_state.json CHANGED
@@ -1,9 +1,9 @@
1
  {
2
- "best_metric": 0.02997952327132225,
3
- "best_model_checkpoint": "runs/deepseek_lora_20240424-122712/checkpoint-1000",
4
- "epoch": 0.31330774653403304,
5
  "eval_steps": 500,
6
- "global_step": 1000,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
@@ -723,6 +723,722 @@
723
  "eval_samples_per_second": 16.128,
724
  "eval_steps_per_second": 16.128,
725
  "step": 1000
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
726
  }
727
  ],
728
  "logging_steps": 10,
@@ -730,7 +1446,7 @@
730
  "num_input_tokens_seen": 0,
731
  "num_train_epochs": 2,
732
  "save_steps": 1000,
733
- "total_flos": 1.6102125993984e+16,
734
  "train_batch_size": 1,
735
  "trial_name": null,
736
  "trial_params": null
 
1
  {
2
+ "best_metric": 0.018277771770954132,
3
+ "best_model_checkpoint": "runs/deepseek_lora_20240424-122712/checkpoint-2000",
4
+ "epoch": 0.6266154930680661,
5
  "eval_steps": 500,
6
+ "global_step": 2000,
7
  "is_hyper_param_search": false,
8
  "is_local_process_zero": true,
9
  "is_world_process_zero": true,
 
723
  "eval_samples_per_second": 16.128,
724
  "eval_steps_per_second": 16.128,
725
  "step": 1000
726
+ },
727
+ {
728
+ "epoch": 0.32,
729
+ "grad_norm": 0.01634177938103676,
730
+ "learning_rate": 1.7733333333333335e-05,
731
+ "loss": 0.0424,
732
+ "step": 1010
733
+ },
734
+ {
735
+ "epoch": 0.32,
736
+ "grad_norm": 0.009437276981770992,
737
+ "learning_rate": 1.768888888888889e-05,
738
+ "loss": 0.0663,
739
+ "step": 1020
740
+ },
741
+ {
742
+ "epoch": 0.32,
743
+ "grad_norm": 0.04742557182908058,
744
+ "learning_rate": 1.7644444444444446e-05,
745
+ "loss": 0.1235,
746
+ "step": 1030
747
+ },
748
+ {
749
+ "epoch": 0.33,
750
+ "grad_norm": 1.101121187210083,
751
+ "learning_rate": 1.76e-05,
752
+ "loss": 0.0574,
753
+ "step": 1040
754
+ },
755
+ {
756
+ "epoch": 0.33,
757
+ "grad_norm": 3.8775153160095215,
758
+ "learning_rate": 1.7555555555555556e-05,
759
+ "loss": 0.0916,
760
+ "step": 1050
761
+ },
762
+ {
763
+ "epoch": 0.33,
764
+ "grad_norm": 0.0064536286517977715,
765
+ "learning_rate": 1.751111111111111e-05,
766
+ "loss": 0.0363,
767
+ "step": 1060
768
+ },
769
+ {
770
+ "epoch": 0.34,
771
+ "grad_norm": 0.004769014660269022,
772
+ "learning_rate": 1.7466666666666667e-05,
773
+ "loss": 0.013,
774
+ "step": 1070
775
+ },
776
+ {
777
+ "epoch": 0.34,
778
+ "grad_norm": 1.7518908977508545,
779
+ "learning_rate": 1.7422222222222222e-05,
780
+ "loss": 0.082,
781
+ "step": 1080
782
+ },
783
+ {
784
+ "epoch": 0.34,
785
+ "grad_norm": 0.07153653353452682,
786
+ "learning_rate": 1.737777777777778e-05,
787
+ "loss": 0.0388,
788
+ "step": 1090
789
+ },
790
+ {
791
+ "epoch": 0.34,
792
+ "grad_norm": 0.015164585784077644,
793
+ "learning_rate": 1.7333333333333336e-05,
794
+ "loss": 0.0613,
795
+ "step": 1100
796
+ },
797
+ {
798
+ "epoch": 0.35,
799
+ "grad_norm": 3.7508952617645264,
800
+ "learning_rate": 1.728888888888889e-05,
801
+ "loss": 0.0989,
802
+ "step": 1110
803
+ },
804
+ {
805
+ "epoch": 0.35,
806
+ "grad_norm": 0.025457441806793213,
807
+ "learning_rate": 1.7244444444444446e-05,
808
+ "loss": 0.0268,
809
+ "step": 1120
810
+ },
811
+ {
812
+ "epoch": 0.35,
813
+ "grad_norm": 4.794126033782959,
814
+ "learning_rate": 1.72e-05,
815
+ "loss": 0.0741,
816
+ "step": 1130
817
+ },
818
+ {
819
+ "epoch": 0.36,
820
+ "grad_norm": 4.877151012420654,
821
+ "learning_rate": 1.7155555555555557e-05,
822
+ "loss": 0.0653,
823
+ "step": 1140
824
+ },
825
+ {
826
+ "epoch": 0.36,
827
+ "grad_norm": 0.009955652058124542,
828
+ "learning_rate": 1.7111111111111112e-05,
829
+ "loss": 0.1041,
830
+ "step": 1150
831
+ },
832
+ {
833
+ "epoch": 0.36,
834
+ "grad_norm": 0.006371030583977699,
835
+ "learning_rate": 1.706666666666667e-05,
836
+ "loss": 0.0365,
837
+ "step": 1160
838
+ },
839
+ {
840
+ "epoch": 0.37,
841
+ "grad_norm": 0.005713317077606916,
842
+ "learning_rate": 1.7022222222222226e-05,
843
+ "loss": 0.0402,
844
+ "step": 1170
845
+ },
846
+ {
847
+ "epoch": 0.37,
848
+ "grad_norm": 0.0035403750371187925,
849
+ "learning_rate": 1.697777777777778e-05,
850
+ "loss": 0.0208,
851
+ "step": 1180
852
+ },
853
+ {
854
+ "epoch": 0.37,
855
+ "grad_norm": 1.2340508699417114,
856
+ "learning_rate": 1.6933333333333336e-05,
857
+ "loss": 0.0507,
858
+ "step": 1190
859
+ },
860
+ {
861
+ "epoch": 0.38,
862
+ "grad_norm": 0.01031398307532072,
863
+ "learning_rate": 1.688888888888889e-05,
864
+ "loss": 0.1464,
865
+ "step": 1200
866
+ },
867
+ {
868
+ "epoch": 0.38,
869
+ "grad_norm": 1.4290913343429565,
870
+ "learning_rate": 1.6844444444444447e-05,
871
+ "loss": 0.01,
872
+ "step": 1210
873
+ },
874
+ {
875
+ "epoch": 0.38,
876
+ "grad_norm": 1.9291528463363647,
877
+ "learning_rate": 1.6800000000000002e-05,
878
+ "loss": 0.0077,
879
+ "step": 1220
880
+ },
881
+ {
882
+ "epoch": 0.39,
883
+ "grad_norm": 0.049461908638477325,
884
+ "learning_rate": 1.6755555555555557e-05,
885
+ "loss": 0.034,
886
+ "step": 1230
887
+ },
888
+ {
889
+ "epoch": 0.39,
890
+ "grad_norm": 0.004318055231124163,
891
+ "learning_rate": 1.6711111111111112e-05,
892
+ "loss": 0.0612,
893
+ "step": 1240
894
+ },
895
+ {
896
+ "epoch": 0.39,
897
+ "grad_norm": 0.003021540120244026,
898
+ "learning_rate": 1.6666666666666667e-05,
899
+ "loss": 0.0135,
900
+ "step": 1250
901
+ },
902
+ {
903
+ "epoch": 0.39,
904
+ "grad_norm": 0.04815623164176941,
905
+ "learning_rate": 1.6622222222222223e-05,
906
+ "loss": 0.0884,
907
+ "step": 1260
908
+ },
909
+ {
910
+ "epoch": 0.4,
911
+ "grad_norm": 2.4603257179260254,
912
+ "learning_rate": 1.6577777777777778e-05,
913
+ "loss": 0.0149,
914
+ "step": 1270
915
+ },
916
+ {
917
+ "epoch": 0.4,
918
+ "grad_norm": 0.002652758965268731,
919
+ "learning_rate": 1.6533333333333333e-05,
920
+ "loss": 0.0239,
921
+ "step": 1280
922
+ },
923
+ {
924
+ "epoch": 0.4,
925
+ "grad_norm": 0.053305696696043015,
926
+ "learning_rate": 1.648888888888889e-05,
927
+ "loss": 0.0615,
928
+ "step": 1290
929
+ },
930
+ {
931
+ "epoch": 0.41,
932
+ "grad_norm": 0.0942620038986206,
933
+ "learning_rate": 1.6444444444444444e-05,
934
+ "loss": 0.0789,
935
+ "step": 1300
936
+ },
937
+ {
938
+ "epoch": 0.41,
939
+ "grad_norm": 2.3062126636505127,
940
+ "learning_rate": 1.64e-05,
941
+ "loss": 0.0526,
942
+ "step": 1310
943
+ },
944
+ {
945
+ "epoch": 0.41,
946
+ "grad_norm": 0.004340393468737602,
947
+ "learning_rate": 1.6355555555555557e-05,
948
+ "loss": 0.0638,
949
+ "step": 1320
950
+ },
951
+ {
952
+ "epoch": 0.42,
953
+ "grad_norm": 2.277503252029419,
954
+ "learning_rate": 1.6311111111111113e-05,
955
+ "loss": 0.0512,
956
+ "step": 1330
957
+ },
958
+ {
959
+ "epoch": 0.42,
960
+ "grad_norm": 5.073038578033447,
961
+ "learning_rate": 1.6266666666666668e-05,
962
+ "loss": 0.1041,
963
+ "step": 1340
964
+ },
965
+ {
966
+ "epoch": 0.42,
967
+ "grad_norm": 0.0030644198413938284,
968
+ "learning_rate": 1.6222222222222223e-05,
969
+ "loss": 0.0016,
970
+ "step": 1350
971
+ },
972
+ {
973
+ "epoch": 0.43,
974
+ "grad_norm": 0.4875153601169586,
975
+ "learning_rate": 1.617777777777778e-05,
976
+ "loss": 0.0946,
977
+ "step": 1360
978
+ },
979
+ {
980
+ "epoch": 0.43,
981
+ "grad_norm": 0.003334318520501256,
982
+ "learning_rate": 1.6133333333333334e-05,
983
+ "loss": 0.0548,
984
+ "step": 1370
985
+ },
986
+ {
987
+ "epoch": 0.43,
988
+ "grad_norm": 2.697582960128784,
989
+ "learning_rate": 1.608888888888889e-05,
990
+ "loss": 0.0628,
991
+ "step": 1380
992
+ },
993
+ {
994
+ "epoch": 0.44,
995
+ "grad_norm": 0.021118061617016792,
996
+ "learning_rate": 1.6044444444444444e-05,
997
+ "loss": 0.0537,
998
+ "step": 1390
999
+ },
1000
+ {
1001
+ "epoch": 0.44,
1002
+ "grad_norm": 0.007942981086671352,
1003
+ "learning_rate": 1.6000000000000003e-05,
1004
+ "loss": 0.057,
1005
+ "step": 1400
1006
+ },
1007
+ {
1008
+ "epoch": 0.44,
1009
+ "grad_norm": 0.003399541135877371,
1010
+ "learning_rate": 1.5955555555555558e-05,
1011
+ "loss": 0.0089,
1012
+ "step": 1410
1013
+ },
1014
+ {
1015
+ "epoch": 0.44,
1016
+ "grad_norm": 0.4597236216068268,
1017
+ "learning_rate": 1.5911111111111113e-05,
1018
+ "loss": 0.079,
1019
+ "step": 1420
1020
+ },
1021
+ {
1022
+ "epoch": 0.45,
1023
+ "grad_norm": 1.0684938430786133,
1024
+ "learning_rate": 1.586666666666667e-05,
1025
+ "loss": 0.0149,
1026
+ "step": 1430
1027
+ },
1028
+ {
1029
+ "epoch": 0.45,
1030
+ "grad_norm": 3.3166937828063965,
1031
+ "learning_rate": 1.5822222222222224e-05,
1032
+ "loss": 0.1189,
1033
+ "step": 1440
1034
+ },
1035
+ {
1036
+ "epoch": 0.45,
1037
+ "grad_norm": 5.2161736488342285,
1038
+ "learning_rate": 1.577777777777778e-05,
1039
+ "loss": 0.1408,
1040
+ "step": 1450
1041
+ },
1042
+ {
1043
+ "epoch": 0.46,
1044
+ "grad_norm": 0.3570309281349182,
1045
+ "learning_rate": 1.5733333333333334e-05,
1046
+ "loss": 0.0247,
1047
+ "step": 1460
1048
+ },
1049
+ {
1050
+ "epoch": 0.46,
1051
+ "grad_norm": 0.005081634968519211,
1052
+ "learning_rate": 1.5688888888888893e-05,
1053
+ "loss": 0.0231,
1054
+ "step": 1470
1055
+ },
1056
+ {
1057
+ "epoch": 0.46,
1058
+ "grad_norm": 4.267640590667725,
1059
+ "learning_rate": 1.5644444444444448e-05,
1060
+ "loss": 0.0928,
1061
+ "step": 1480
1062
+ },
1063
+ {
1064
+ "epoch": 0.47,
1065
+ "grad_norm": 0.014545031823217869,
1066
+ "learning_rate": 1.5600000000000003e-05,
1067
+ "loss": 0.0561,
1068
+ "step": 1490
1069
+ },
1070
+ {
1071
+ "epoch": 0.47,
1072
+ "grad_norm": 2.007899522781372,
1073
+ "learning_rate": 1.555555555555556e-05,
1074
+ "loss": 0.058,
1075
+ "step": 1500
1076
+ },
1077
+ {
1078
+ "epoch": 0.47,
1079
+ "eval_loss": 0.021991439163684845,
1080
+ "eval_runtime": 61.9363,
1081
+ "eval_samples_per_second": 16.146,
1082
+ "eval_steps_per_second": 16.146,
1083
+ "step": 1500
1084
+ },
1085
+ {
1086
+ "epoch": 0.47,
1087
+ "grad_norm": 0.18892046809196472,
1088
+ "learning_rate": 1.5511111111111114e-05,
1089
+ "loss": 0.0541,
1090
+ "step": 1510
1091
+ },
1092
+ {
1093
+ "epoch": 0.48,
1094
+ "grad_norm": 0.9835280179977417,
1095
+ "learning_rate": 1.546666666666667e-05,
1096
+ "loss": 0.0349,
1097
+ "step": 1520
1098
+ },
1099
+ {
1100
+ "epoch": 0.48,
1101
+ "grad_norm": 0.004944021347910166,
1102
+ "learning_rate": 1.5422222222222224e-05,
1103
+ "loss": 0.0688,
1104
+ "step": 1530
1105
+ },
1106
+ {
1107
+ "epoch": 0.48,
1108
+ "grad_norm": 0.0025414193514734507,
1109
+ "learning_rate": 1.537777777777778e-05,
1110
+ "loss": 0.0374,
1111
+ "step": 1540
1112
+ },
1113
+ {
1114
+ "epoch": 0.49,
1115
+ "grad_norm": 0.047879841178655624,
1116
+ "learning_rate": 1.5333333333333334e-05,
1117
+ "loss": 0.0867,
1118
+ "step": 1550
1119
+ },
1120
+ {
1121
+ "epoch": 0.49,
1122
+ "grad_norm": 0.12313953042030334,
1123
+ "learning_rate": 1.528888888888889e-05,
1124
+ "loss": 0.0142,
1125
+ "step": 1560
1126
+ },
1127
+ {
1128
+ "epoch": 0.49,
1129
+ "grad_norm": 0.0055120717734098434,
1130
+ "learning_rate": 1.5244444444444447e-05,
1131
+ "loss": 0.0332,
1132
+ "step": 1570
1133
+ },
1134
+ {
1135
+ "epoch": 0.5,
1136
+ "grad_norm": 0.0030517149716615677,
1137
+ "learning_rate": 1.5200000000000002e-05,
1138
+ "loss": 0.0739,
1139
+ "step": 1580
1140
+ },
1141
+ {
1142
+ "epoch": 0.5,
1143
+ "grad_norm": 0.04954369366168976,
1144
+ "learning_rate": 1.5155555555555557e-05,
1145
+ "loss": 0.0609,
1146
+ "step": 1590
1147
+ },
1148
+ {
1149
+ "epoch": 0.5,
1150
+ "grad_norm": 2.16231369972229,
1151
+ "learning_rate": 1.5111111111111112e-05,
1152
+ "loss": 0.084,
1153
+ "step": 1600
1154
+ },
1155
+ {
1156
+ "epoch": 0.5,
1157
+ "grad_norm": 0.03328130766749382,
1158
+ "learning_rate": 1.5066666666666668e-05,
1159
+ "loss": 0.0561,
1160
+ "step": 1610
1161
+ },
1162
+ {
1163
+ "epoch": 0.51,
1164
+ "grad_norm": 0.3883110582828522,
1165
+ "learning_rate": 1.5022222222222223e-05,
1166
+ "loss": 0.065,
1167
+ "step": 1620
1168
+ },
1169
+ {
1170
+ "epoch": 0.51,
1171
+ "grad_norm": 0.007501136511564255,
1172
+ "learning_rate": 1.497777777777778e-05,
1173
+ "loss": 0.0645,
1174
+ "step": 1630
1175
+ },
1176
+ {
1177
+ "epoch": 0.51,
1178
+ "grad_norm": 0.0025652372278273106,
1179
+ "learning_rate": 1.4933333333333335e-05,
1180
+ "loss": 0.1242,
1181
+ "step": 1640
1182
+ },
1183
+ {
1184
+ "epoch": 0.52,
1185
+ "grad_norm": 2.322174549102783,
1186
+ "learning_rate": 1.488888888888889e-05,
1187
+ "loss": 0.0639,
1188
+ "step": 1650
1189
+ },
1190
+ {
1191
+ "epoch": 0.52,
1192
+ "grad_norm": 3.1910171508789062,
1193
+ "learning_rate": 1.4844444444444445e-05,
1194
+ "loss": 0.1048,
1195
+ "step": 1660
1196
+ },
1197
+ {
1198
+ "epoch": 0.52,
1199
+ "grad_norm": 0.00425474438816309,
1200
+ "learning_rate": 1.48e-05,
1201
+ "loss": 0.0244,
1202
+ "step": 1670
1203
+ },
1204
+ {
1205
+ "epoch": 0.53,
1206
+ "grad_norm": 4.180226802825928,
1207
+ "learning_rate": 1.4755555555555556e-05,
1208
+ "loss": 0.0874,
1209
+ "step": 1680
1210
+ },
1211
+ {
1212
+ "epoch": 0.53,
1213
+ "grad_norm": 1.1955620050430298,
1214
+ "learning_rate": 1.4711111111111111e-05,
1215
+ "loss": 0.0371,
1216
+ "step": 1690
1217
+ },
1218
+ {
1219
+ "epoch": 0.53,
1220
+ "grad_norm": 0.010523403063416481,
1221
+ "learning_rate": 1.4666666666666666e-05,
1222
+ "loss": 0.0441,
1223
+ "step": 1700
1224
+ },
1225
+ {
1226
+ "epoch": 0.54,
1227
+ "grad_norm": 0.3403013348579407,
1228
+ "learning_rate": 1.4622222222222225e-05,
1229
+ "loss": 0.0758,
1230
+ "step": 1710
1231
+ },
1232
+ {
1233
+ "epoch": 0.54,
1234
+ "grad_norm": 0.046740252524614334,
1235
+ "learning_rate": 1.457777777777778e-05,
1236
+ "loss": 0.1069,
1237
+ "step": 1720
1238
+ },
1239
+ {
1240
+ "epoch": 0.54,
1241
+ "grad_norm": 0.1384706348180771,
1242
+ "learning_rate": 1.4533333333333335e-05,
1243
+ "loss": 0.0656,
1244
+ "step": 1730
1245
+ },
1246
+ {
1247
+ "epoch": 0.55,
1248
+ "grad_norm": 1.4094263315200806,
1249
+ "learning_rate": 1.448888888888889e-05,
1250
+ "loss": 0.0255,
1251
+ "step": 1740
1252
+ },
1253
+ {
1254
+ "epoch": 0.55,
1255
+ "grad_norm": 0.055873990058898926,
1256
+ "learning_rate": 1.4444444444444446e-05,
1257
+ "loss": 0.0181,
1258
+ "step": 1750
1259
+ },
1260
+ {
1261
+ "epoch": 0.55,
1262
+ "grad_norm": 0.002195443492382765,
1263
+ "learning_rate": 1.4400000000000001e-05,
1264
+ "loss": 0.0004,
1265
+ "step": 1760
1266
+ },
1267
+ {
1268
+ "epoch": 0.55,
1269
+ "grad_norm": 0.004009276628494263,
1270
+ "learning_rate": 1.4355555555555556e-05,
1271
+ "loss": 0.0724,
1272
+ "step": 1770
1273
+ },
1274
+ {
1275
+ "epoch": 0.56,
1276
+ "grad_norm": 2.4936776161193848,
1277
+ "learning_rate": 1.4311111111111111e-05,
1278
+ "loss": 0.0822,
1279
+ "step": 1780
1280
+ },
1281
+ {
1282
+ "epoch": 0.56,
1283
+ "grad_norm": 1.6697956323623657,
1284
+ "learning_rate": 1.4266666666666668e-05,
1285
+ "loss": 0.0041,
1286
+ "step": 1790
1287
+ },
1288
+ {
1289
+ "epoch": 0.56,
1290
+ "grad_norm": 2.3623549938201904,
1291
+ "learning_rate": 1.4222222222222224e-05,
1292
+ "loss": 0.0805,
1293
+ "step": 1800
1294
+ },
1295
+ {
1296
+ "epoch": 0.57,
1297
+ "grad_norm": 3.6882166862487793,
1298
+ "learning_rate": 1.4177777777777779e-05,
1299
+ "loss": 0.0353,
1300
+ "step": 1810
1301
+ },
1302
+ {
1303
+ "epoch": 0.57,
1304
+ "grad_norm": 2.8029565811157227,
1305
+ "learning_rate": 1.4133333333333334e-05,
1306
+ "loss": 0.0666,
1307
+ "step": 1820
1308
+ },
1309
+ {
1310
+ "epoch": 0.57,
1311
+ "grad_norm": 0.0027399081736803055,
1312
+ "learning_rate": 1.408888888888889e-05,
1313
+ "loss": 0.0129,
1314
+ "step": 1830
1315
+ },
1316
+ {
1317
+ "epoch": 0.58,
1318
+ "grad_norm": 0.002227638615295291,
1319
+ "learning_rate": 1.4044444444444445e-05,
1320
+ "loss": 0.0644,
1321
+ "step": 1840
1322
+ },
1323
+ {
1324
+ "epoch": 0.58,
1325
+ "grad_norm": 0.0038109265733510256,
1326
+ "learning_rate": 1.4e-05,
1327
+ "loss": 0.0554,
1328
+ "step": 1850
1329
+ },
1330
+ {
1331
+ "epoch": 0.58,
1332
+ "grad_norm": 0.23026524484157562,
1333
+ "learning_rate": 1.3955555555555558e-05,
1334
+ "loss": 0.0513,
1335
+ "step": 1860
1336
+ },
1337
+ {
1338
+ "epoch": 0.59,
1339
+ "grad_norm": 0.003622630378231406,
1340
+ "learning_rate": 1.3911111111111114e-05,
1341
+ "loss": 0.0595,
1342
+ "step": 1870
1343
+ },
1344
+ {
1345
+ "epoch": 0.59,
1346
+ "grad_norm": 0.004487840924412012,
1347
+ "learning_rate": 1.3866666666666669e-05,
1348
+ "loss": 0.0507,
1349
+ "step": 1880
1350
+ },
1351
+ {
1352
+ "epoch": 0.59,
1353
+ "grad_norm": 0.0032237153500318527,
1354
+ "learning_rate": 1.3822222222222224e-05,
1355
+ "loss": 0.0246,
1356
+ "step": 1890
1357
+ },
1358
+ {
1359
+ "epoch": 0.6,
1360
+ "grad_norm": 2.904846429824829,
1361
+ "learning_rate": 1.377777777777778e-05,
1362
+ "loss": 0.041,
1363
+ "step": 1900
1364
+ },
1365
+ {
1366
+ "epoch": 0.6,
1367
+ "grad_norm": 2.9861977100372314,
1368
+ "learning_rate": 1.3733333333333335e-05,
1369
+ "loss": 0.0529,
1370
+ "step": 1910
1371
+ },
1372
+ {
1373
+ "epoch": 0.6,
1374
+ "grad_norm": 0.002036773832514882,
1375
+ "learning_rate": 1.368888888888889e-05,
1376
+ "loss": 0.0515,
1377
+ "step": 1920
1378
+ },
1379
+ {
1380
+ "epoch": 0.6,
1381
+ "grad_norm": 2.882114887237549,
1382
+ "learning_rate": 1.3644444444444445e-05,
1383
+ "loss": 0.0437,
1384
+ "step": 1930
1385
+ },
1386
+ {
1387
+ "epoch": 0.61,
1388
+ "grad_norm": 3.0705764293670654,
1389
+ "learning_rate": 1.3600000000000002e-05,
1390
+ "loss": 0.0203,
1391
+ "step": 1940
1392
+ },
1393
+ {
1394
+ "epoch": 0.61,
1395
+ "grad_norm": 0.003252115799114108,
1396
+ "learning_rate": 1.3555555555555557e-05,
1397
+ "loss": 0.0288,
1398
+ "step": 1950
1399
+ },
1400
+ {
1401
+ "epoch": 0.61,
1402
+ "grad_norm": 0.002082700841128826,
1403
+ "learning_rate": 1.3511111111111112e-05,
1404
+ "loss": 0.0737,
1405
+ "step": 1960
1406
+ },
1407
+ {
1408
+ "epoch": 0.62,
1409
+ "grad_norm": 0.004269629716873169,
1410
+ "learning_rate": 1.3466666666666668e-05,
1411
+ "loss": 0.0283,
1412
+ "step": 1970
1413
+ },
1414
+ {
1415
+ "epoch": 0.62,
1416
+ "grad_norm": 0.004804402124136686,
1417
+ "learning_rate": 1.3422222222222223e-05,
1418
+ "loss": 0.0769,
1419
+ "step": 1980
1420
+ },
1421
+ {
1422
+ "epoch": 0.62,
1423
+ "grad_norm": 0.006747941020876169,
1424
+ "learning_rate": 1.3377777777777778e-05,
1425
+ "loss": 0.0169,
1426
+ "step": 1990
1427
+ },
1428
+ {
1429
+ "epoch": 0.63,
1430
+ "grad_norm": 0.00186560966540128,
1431
+ "learning_rate": 1.3333333333333333e-05,
1432
+ "loss": 0.0346,
1433
+ "step": 2000
1434
+ },
1435
+ {
1436
+ "epoch": 0.63,
1437
+ "eval_loss": 0.018277771770954132,
1438
+ "eval_runtime": 61.9406,
1439
+ "eval_samples_per_second": 16.144,
1440
+ "eval_steps_per_second": 16.144,
1441
+ "step": 2000
1442
  }
1443
  ],
1444
  "logging_steps": 10,
 
1446
  "num_input_tokens_seen": 0,
1447
  "num_train_epochs": 2,
1448
  "save_steps": 1000,
1449
+ "total_flos": 3.2204251987968e+16,
1450
  "train_batch_size": 1,
1451
  "trial_name": null,
1452
  "trial_params": null