minimini99 commited on
Commit
cde398a
·
verified ·
1 Parent(s): cb3c4a0

Training in progress, step 345

Browse files
adapter_config.json CHANGED
@@ -23,12 +23,12 @@
23
  "rank_pattern": {},
24
  "revision": null,
25
  "target_modules": [
26
- "q_proj",
27
- "gate_proj",
28
- "up_proj",
29
- "o_proj",
30
  "v_proj",
 
31
  "k_proj",
 
 
 
32
  "down_proj"
33
  ],
34
  "task_type": "CAUSAL_LM",
 
23
  "rank_pattern": {},
24
  "revision": null,
25
  "target_modules": [
 
 
 
 
26
  "v_proj",
27
+ "up_proj",
28
  "k_proj",
29
+ "gate_proj",
30
+ "q_proj",
31
+ "o_proj",
32
  "down_proj"
33
  ],
34
  "task_type": "CAUSAL_LM",
adapter_model.safetensors CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:79b6eb7b69c3400b1d2467f4a9019e32c767f7cdf540b960ef9068447fe5d647
3
  size 2772497632
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:6bd67e5504472688135ea31cf6a9f03ee04c9f81689ed49986d3bd5418b94218
3
  size 2772497632
trainer_state.json ADDED
@@ -0,0 +1,1092 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "best_metric": null,
3
+ "best_model_checkpoint": null,
4
+ "epoch": 10.0,
5
+ "eval_steps": 500,
6
+ "global_step": 150,
7
+ "is_hyper_param_search": false,
8
+ "is_local_process_zero": true,
9
+ "is_world_process_zero": true,
10
+ "log_history": [
11
+ {
12
+ "epoch": 0.06666666666666667,
13
+ "grad_norm": 3.4085312483246724,
14
+ "learning_rate": 4.000000000000001e-06,
15
+ "loss": 1.4028,
16
+ "step": 1
17
+ },
18
+ {
19
+ "epoch": 0.13333333333333333,
20
+ "grad_norm": 4.666705759671598,
21
+ "learning_rate": 8.000000000000001e-06,
22
+ "loss": 1.2916,
23
+ "step": 2
24
+ },
25
+ {
26
+ "epoch": 0.2,
27
+ "grad_norm": 3.871080407186316,
28
+ "learning_rate": 1.2e-05,
29
+ "loss": 1.3833,
30
+ "step": 3
31
+ },
32
+ {
33
+ "epoch": 0.26666666666666666,
34
+ "grad_norm": 2.7124590679450193,
35
+ "learning_rate": 1.6000000000000003e-05,
36
+ "loss": 0.9761,
37
+ "step": 4
38
+ },
39
+ {
40
+ "epoch": 0.3333333333333333,
41
+ "grad_norm": 2.071960200602384,
42
+ "learning_rate": 2e-05,
43
+ "loss": 1.3587,
44
+ "step": 5
45
+ },
46
+ {
47
+ "epoch": 0.4,
48
+ "grad_norm": 1.648098466658743,
49
+ "learning_rate": 1.999765298018484e-05,
50
+ "loss": 0.8337,
51
+ "step": 6
52
+ },
53
+ {
54
+ "epoch": 0.4666666666666667,
55
+ "grad_norm": 1.6253968845904598,
56
+ "learning_rate": 1.999061302243977e-05,
57
+ "loss": 1.0941,
58
+ "step": 7
59
+ },
60
+ {
61
+ "epoch": 0.5333333333333333,
62
+ "grad_norm": 1.4301494839270958,
63
+ "learning_rate": 1.9978883431348845e-05,
64
+ "loss": 0.959,
65
+ "step": 8
66
+ },
67
+ {
68
+ "epoch": 0.6,
69
+ "grad_norm": 1.5578987331272605,
70
+ "learning_rate": 1.9962469712828613e-05,
71
+ "loss": 1.0682,
72
+ "step": 9
73
+ },
74
+ {
75
+ "epoch": 0.6666666666666666,
76
+ "grad_norm": 1.4627247576612574,
77
+ "learning_rate": 1.9941379571543597e-05,
78
+ "loss": 1.1677,
79
+ "step": 10
80
+ },
81
+ {
82
+ "epoch": 0.7333333333333333,
83
+ "grad_norm": 1.6114807558199653,
84
+ "learning_rate": 1.9915622907289695e-05,
85
+ "loss": 1.1538,
86
+ "step": 11
87
+ },
88
+ {
89
+ "epoch": 0.8,
90
+ "grad_norm": 1.2878501917792624,
91
+ "learning_rate": 1.9885211810347185e-05,
92
+ "loss": 1.1649,
93
+ "step": 12
94
+ },
95
+ {
96
+ "epoch": 0.8666666666666667,
97
+ "grad_norm": 1.6334765738880663,
98
+ "learning_rate": 1.9850160555805485e-05,
99
+ "loss": 0.9951,
100
+ "step": 13
101
+ },
102
+ {
103
+ "epoch": 0.9333333333333333,
104
+ "grad_norm": 1.628821939921328,
105
+ "learning_rate": 1.981048559686239e-05,
106
+ "loss": 0.9233,
107
+ "step": 14
108
+ },
109
+ {
110
+ "epoch": 1.0,
111
+ "grad_norm": 1.339302435711646,
112
+ "learning_rate": 1.976620555710087e-05,
113
+ "loss": 1.0353,
114
+ "step": 15
115
+ },
116
+ {
117
+ "epoch": 1.0666666666666667,
118
+ "grad_norm": 1.1556672707686442,
119
+ "learning_rate": 1.9717341221747056e-05,
120
+ "loss": 0.9605,
121
+ "step": 16
122
+ },
123
+ {
124
+ "epoch": 1.1333333333333333,
125
+ "grad_norm": 1.2387154465086059,
126
+ "learning_rate": 1.9663915527913628e-05,
127
+ "loss": 1.1088,
128
+ "step": 17
129
+ },
130
+ {
131
+ "epoch": 1.2,
132
+ "grad_norm": 1.1394015037618388,
133
+ "learning_rate": 1.9605953553832987e-05,
134
+ "loss": 1.1281,
135
+ "step": 18
136
+ },
137
+ {
138
+ "epoch": 1.2666666666666666,
139
+ "grad_norm": 1.0626133768253427,
140
+ "learning_rate": 1.9543482507085484e-05,
141
+ "loss": 1.0368,
142
+ "step": 19
143
+ },
144
+ {
145
+ "epoch": 1.3333333333333333,
146
+ "grad_norm": 1.391951038364559,
147
+ "learning_rate": 1.9476531711828027e-05,
148
+ "loss": 1.0803,
149
+ "step": 20
150
+ },
151
+ {
152
+ "epoch": 1.4,
153
+ "grad_norm": 1.2604998479257097,
154
+ "learning_rate": 1.940513259502924e-05,
155
+ "loss": 1.0545,
156
+ "step": 21
157
+ },
158
+ {
159
+ "epoch": 1.4666666666666668,
160
+ "grad_norm": 1.3683100627781444,
161
+ "learning_rate": 1.932931867171751e-05,
162
+ "loss": 1.0207,
163
+ "step": 22
164
+ },
165
+ {
166
+ "epoch": 1.5333333333333332,
167
+ "grad_norm": 1.0663814943522483,
168
+ "learning_rate": 1.924912552924889e-05,
169
+ "loss": 0.9533,
170
+ "step": 23
171
+ },
172
+ {
173
+ "epoch": 1.6,
174
+ "grad_norm": 1.064831041129997,
175
+ "learning_rate": 1.9164590810602262e-05,
176
+ "loss": 0.8148,
177
+ "step": 24
178
+ },
179
+ {
180
+ "epoch": 1.6666666666666665,
181
+ "grad_norm": 0.9739867731832403,
182
+ "learning_rate": 1.9075754196709574e-05,
183
+ "loss": 0.9337,
184
+ "step": 25
185
+ },
186
+ {
187
+ "epoch": 1.7333333333333334,
188
+ "grad_norm": 1.2675282274463724,
189
+ "learning_rate": 1.8982657387829447e-05,
190
+ "loss": 1.0805,
191
+ "step": 26
192
+ },
193
+ {
194
+ "epoch": 1.8,
195
+ "grad_norm": 0.9372218377939878,
196
+ "learning_rate": 1.8885344083972912e-05,
197
+ "loss": 1.0695,
198
+ "step": 27
199
+ },
200
+ {
201
+ "epoch": 1.8666666666666667,
202
+ "grad_norm": 1.3431500053349323,
203
+ "learning_rate": 1.8783859964390466e-05,
204
+ "loss": 1.1591,
205
+ "step": 28
206
+ },
207
+ {
208
+ "epoch": 1.9333333333333333,
209
+ "grad_norm": 1.1202612444362305,
210
+ "learning_rate": 1.8678252666130016e-05,
211
+ "loss": 0.968,
212
+ "step": 29
213
+ },
214
+ {
215
+ "epoch": 2.0,
216
+ "grad_norm": 1.2260350955015997,
217
+ "learning_rate": 1.8568571761675893e-05,
218
+ "loss": 0.9043,
219
+ "step": 30
220
+ },
221
+ {
222
+ "epoch": 2.066666666666667,
223
+ "grad_norm": 1.0478158856201552,
224
+ "learning_rate": 1.845486873567932e-05,
225
+ "loss": 1.1587,
226
+ "step": 31
227
+ },
228
+ {
229
+ "epoch": 2.1333333333333333,
230
+ "grad_norm": 1.0874714452657954,
231
+ "learning_rate": 1.8337196960791305e-05,
232
+ "loss": 0.9252,
233
+ "step": 32
234
+ },
235
+ {
236
+ "epoch": 2.2,
237
+ "grad_norm": 0.9752649031044559,
238
+ "learning_rate": 1.8215611672609316e-05,
239
+ "loss": 1.0202,
240
+ "step": 33
241
+ },
242
+ {
243
+ "epoch": 2.2666666666666666,
244
+ "grad_norm": 1.0434763245427732,
245
+ "learning_rate": 1.8090169943749477e-05,
246
+ "loss": 0.996,
247
+ "step": 34
248
+ },
249
+ {
250
+ "epoch": 2.3333333333333335,
251
+ "grad_norm": 1.1379594366750487,
252
+ "learning_rate": 1.796093065705644e-05,
253
+ "loss": 0.9925,
254
+ "step": 35
255
+ },
256
+ {
257
+ "epoch": 2.4,
258
+ "grad_norm": 1.1948697336608844,
259
+ "learning_rate": 1.782795447796356e-05,
260
+ "loss": 1.2921,
261
+ "step": 36
262
+ },
263
+ {
264
+ "epoch": 2.466666666666667,
265
+ "grad_norm": 1.221446681124953,
266
+ "learning_rate": 1.769130382601629e-05,
267
+ "loss": 0.8618,
268
+ "step": 37
269
+ },
270
+ {
271
+ "epoch": 2.533333333333333,
272
+ "grad_norm": 1.0829408518691481,
273
+ "learning_rate": 1.755104284557221e-05,
274
+ "loss": 0.9958,
275
+ "step": 38
276
+ },
277
+ {
278
+ "epoch": 2.6,
279
+ "grad_norm": 1.1500016708742549,
280
+ "learning_rate": 1.7407237375691394e-05,
281
+ "loss": 0.9654,
282
+ "step": 39
283
+ },
284
+ {
285
+ "epoch": 2.6666666666666665,
286
+ "grad_norm": 1.2766994471456066,
287
+ "learning_rate": 1.725995491923131e-05,
288
+ "loss": 1.0478,
289
+ "step": 40
290
+ },
291
+ {
292
+ "epoch": 2.7333333333333334,
293
+ "grad_norm": 1.1725464918998885,
294
+ "learning_rate": 1.710926461116071e-05,
295
+ "loss": 0.8262,
296
+ "step": 41
297
+ },
298
+ {
299
+ "epoch": 2.8,
300
+ "grad_norm": 1.0893404581760975,
301
+ "learning_rate": 1.6955237186107387e-05,
302
+ "loss": 0.8965,
303
+ "step": 42
304
+ },
305
+ {
306
+ "epoch": 2.8666666666666667,
307
+ "grad_norm": 0.9166278938019341,
308
+ "learning_rate": 1.679794494515508e-05,
309
+ "loss": 0.9818,
310
+ "step": 43
311
+ },
312
+ {
313
+ "epoch": 2.9333333333333336,
314
+ "grad_norm": 1.0710933249027597,
315
+ "learning_rate": 1.6637461721905047e-05,
316
+ "loss": 0.952,
317
+ "step": 44
318
+ },
319
+ {
320
+ "epoch": 3.0,
321
+ "grad_norm": 1.1331761656207147,
322
+ "learning_rate": 1.647386284781828e-05,
323
+ "loss": 0.916,
324
+ "step": 45
325
+ },
326
+ {
327
+ "epoch": 3.066666666666667,
328
+ "grad_norm": 0.9564647379011718,
329
+ "learning_rate": 1.6307225116854623e-05,
330
+ "loss": 1.1324,
331
+ "step": 46
332
+ },
333
+ {
334
+ "epoch": 3.1333333333333333,
335
+ "grad_norm": 0.8318197021971842,
336
+ "learning_rate": 1.6137626749425377e-05,
337
+ "loss": 0.9577,
338
+ "step": 47
339
+ },
340
+ {
341
+ "epoch": 3.2,
342
+ "grad_norm": 1.248321661047559,
343
+ "learning_rate": 1.5965147355676344e-05,
344
+ "loss": 0.9331,
345
+ "step": 48
346
+ },
347
+ {
348
+ "epoch": 3.2666666666666666,
349
+ "grad_norm": 1.1222614201620278,
350
+ "learning_rate": 1.578986789811849e-05,
351
+ "loss": 0.845,
352
+ "step": 49
353
+ },
354
+ {
355
+ "epoch": 3.3333333333333335,
356
+ "grad_norm": 1.0274159778159633,
357
+ "learning_rate": 1.5611870653623826e-05,
358
+ "loss": 0.9643,
359
+ "step": 50
360
+ },
361
+ {
362
+ "epoch": 3.4,
363
+ "grad_norm": 1.2499948768241727,
364
+ "learning_rate": 1.543123917480433e-05,
365
+ "loss": 0.8808,
366
+ "step": 51
367
+ },
368
+ {
369
+ "epoch": 3.466666666666667,
370
+ "grad_norm": 1.0815573199440531,
371
+ "learning_rate": 1.5248058250792008e-05,
372
+ "loss": 0.8817,
373
+ "step": 52
374
+ },
375
+ {
376
+ "epoch": 3.533333333333333,
377
+ "grad_norm": 1.153929296287051,
378
+ "learning_rate": 1.506241386743854e-05,
379
+ "loss": 0.994,
380
+ "step": 53
381
+ },
382
+ {
383
+ "epoch": 3.6,
384
+ "grad_norm": 1.103492229784582,
385
+ "learning_rate": 1.4874393166953194e-05,
386
+ "loss": 0.8729,
387
+ "step": 54
388
+ },
389
+ {
390
+ "epoch": 3.6666666666666665,
391
+ "grad_norm": 1.2133497016696713,
392
+ "learning_rate": 1.4684084406997903e-05,
393
+ "loss": 1.1275,
394
+ "step": 55
395
+ },
396
+ {
397
+ "epoch": 3.7333333333333334,
398
+ "grad_norm": 1.3609462560361256,
399
+ "learning_rate": 1.4491576919258794e-05,
400
+ "loss": 1.1054,
401
+ "step": 56
402
+ },
403
+ {
404
+ "epoch": 3.8,
405
+ "grad_norm": 0.9886233265547686,
406
+ "learning_rate": 1.4296961067513519e-05,
407
+ "loss": 0.9743,
408
+ "step": 57
409
+ },
410
+ {
411
+ "epoch": 3.8666666666666667,
412
+ "grad_norm": 1.1745326799492681,
413
+ "learning_rate": 1.4100328205214161e-05,
414
+ "loss": 0.8838,
415
+ "step": 58
416
+ },
417
+ {
418
+ "epoch": 3.9333333333333336,
419
+ "grad_norm": 1.3390216614348462,
420
+ "learning_rate": 1.3901770632605546e-05,
421
+ "loss": 1.0468,
422
+ "step": 59
423
+ },
424
+ {
425
+ "epoch": 4.0,
426
+ "grad_norm": 1.014063659841383,
427
+ "learning_rate": 1.3701381553399147e-05,
428
+ "loss": 1.0688,
429
+ "step": 60
430
+ },
431
+ {
432
+ "epoch": 4.066666666666666,
433
+ "grad_norm": 1.2635366819058482,
434
+ "learning_rate": 1.3499255031022887e-05,
435
+ "loss": 0.8666,
436
+ "step": 61
437
+ },
438
+ {
439
+ "epoch": 4.133333333333334,
440
+ "grad_norm": 1.3025248294074614,
441
+ "learning_rate": 1.3295485944467405e-05,
442
+ "loss": 0.9334,
443
+ "step": 62
444
+ },
445
+ {
446
+ "epoch": 4.2,
447
+ "grad_norm": 0.9545362380710669,
448
+ "learning_rate": 1.3090169943749475e-05,
449
+ "loss": 0.9013,
450
+ "step": 63
451
+ },
452
+ {
453
+ "epoch": 4.266666666666667,
454
+ "grad_norm": 1.0710628345049782,
455
+ "learning_rate": 1.288340340501351e-05,
456
+ "loss": 0.9823,
457
+ "step": 64
458
+ },
459
+ {
460
+ "epoch": 4.333333333333333,
461
+ "grad_norm": 1.133254418294951,
462
+ "learning_rate": 1.2675283385292212e-05,
463
+ "loss": 1.0442,
464
+ "step": 65
465
+ },
466
+ {
467
+ "epoch": 4.4,
468
+ "grad_norm": 1.10114922731124,
469
+ "learning_rate": 1.2465907576947623e-05,
470
+ "loss": 0.913,
471
+ "step": 66
472
+ },
473
+ {
474
+ "epoch": 4.466666666666667,
475
+ "grad_norm": 1.2375740608897428,
476
+ "learning_rate": 1.2255374261813944e-05,
477
+ "loss": 1.0133,
478
+ "step": 67
479
+ },
480
+ {
481
+ "epoch": 4.533333333333333,
482
+ "grad_norm": 0.9760429622715396,
483
+ "learning_rate": 1.204378226506365e-05,
484
+ "loss": 0.7568,
485
+ "step": 68
486
+ },
487
+ {
488
+ "epoch": 4.6,
489
+ "grad_norm": 1.489210275369955,
490
+ "learning_rate": 1.1831230908818563e-05,
491
+ "loss": 0.779,
492
+ "step": 69
493
+ },
494
+ {
495
+ "epoch": 4.666666666666667,
496
+ "grad_norm": 1.1933378195744682,
497
+ "learning_rate": 1.161781996552765e-05,
498
+ "loss": 1.2456,
499
+ "step": 70
500
+ },
501
+ {
502
+ "epoch": 4.733333333333333,
503
+ "grad_norm": 0.9862661993909408,
504
+ "learning_rate": 1.1403649611133444e-05,
505
+ "loss": 0.9868,
506
+ "step": 71
507
+ },
508
+ {
509
+ "epoch": 4.8,
510
+ "grad_norm": 1.2076305842024768,
511
+ "learning_rate": 1.1188820378049066e-05,
512
+ "loss": 1.0797,
513
+ "step": 72
514
+ },
515
+ {
516
+ "epoch": 4.866666666666667,
517
+ "grad_norm": 1.2607815569078051,
518
+ "learning_rate": 1.0973433107967901e-05,
519
+ "loss": 0.9826,
520
+ "step": 73
521
+ },
522
+ {
523
+ "epoch": 4.933333333333334,
524
+ "grad_norm": 1.094147617295901,
525
+ "learning_rate": 1.0757588904528106e-05,
526
+ "loss": 0.8119,
527
+ "step": 74
528
+ },
529
+ {
530
+ "epoch": 5.0,
531
+ "grad_norm": 1.1121751761899872,
532
+ "learning_rate": 1.0541389085854177e-05,
533
+ "loss": 0.9773,
534
+ "step": 75
535
+ },
536
+ {
537
+ "epoch": 5.066666666666666,
538
+ "grad_norm": 1.0579179415785263,
539
+ "learning_rate": 1.0324935136997807e-05,
540
+ "loss": 0.9678,
541
+ "step": 76
542
+ },
543
+ {
544
+ "epoch": 5.133333333333334,
545
+ "grad_norm": 1.3395230330750847,
546
+ "learning_rate": 1.0108328662300399e-05,
547
+ "loss": 0.7061,
548
+ "step": 77
549
+ },
550
+ {
551
+ "epoch": 5.2,
552
+ "grad_norm": 1.1999310932391165,
553
+ "learning_rate": 9.891671337699603e-06,
554
+ "loss": 0.8735,
555
+ "step": 78
556
+ },
557
+ {
558
+ "epoch": 5.266666666666667,
559
+ "grad_norm": 1.010683429579378,
560
+ "learning_rate": 9.675064863002196e-06,
561
+ "loss": 0.8371,
562
+ "step": 79
563
+ },
564
+ {
565
+ "epoch": 5.333333333333333,
566
+ "grad_norm": 1.2108378582218189,
567
+ "learning_rate": 9.458610914145826e-06,
568
+ "loss": 1.181,
569
+ "step": 80
570
+ },
571
+ {
572
+ "epoch": 5.4,
573
+ "grad_norm": 1.18004488850976,
574
+ "learning_rate": 9.242411095471897e-06,
575
+ "loss": 1.0823,
576
+ "step": 81
577
+ },
578
+ {
579
+ "epoch": 5.466666666666667,
580
+ "grad_norm": 1.0454083723550043,
581
+ "learning_rate": 9.026566892032104e-06,
582
+ "loss": 0.9903,
583
+ "step": 82
584
+ },
585
+ {
586
+ "epoch": 5.533333333333333,
587
+ "grad_norm": 1.0667864315015048,
588
+ "learning_rate": 8.811179621950937e-06,
589
+ "loss": 0.8442,
590
+ "step": 83
591
+ },
592
+ {
593
+ "epoch": 5.6,
594
+ "grad_norm": 1.2020765015122372,
595
+ "learning_rate": 8.596350388866557e-06,
596
+ "loss": 0.8857,
597
+ "step": 84
598
+ },
599
+ {
600
+ "epoch": 5.666666666666667,
601
+ "grad_norm": 1.4131091155815,
602
+ "learning_rate": 8.382180034472353e-06,
603
+ "loss": 0.9864,
604
+ "step": 85
605
+ },
606
+ {
607
+ "epoch": 5.733333333333333,
608
+ "grad_norm": 1.486362030270159,
609
+ "learning_rate": 8.168769091181439e-06,
610
+ "loss": 0.9574,
611
+ "step": 86
612
+ },
613
+ {
614
+ "epoch": 5.8,
615
+ "grad_norm": 1.313551073594268,
616
+ "learning_rate": 7.956217734936353e-06,
617
+ "loss": 0.9289,
618
+ "step": 87
619
+ },
620
+ {
621
+ "epoch": 5.866666666666667,
622
+ "grad_norm": 1.3192481257399435,
623
+ "learning_rate": 7.74462573818606e-06,
624
+ "loss": 0.9545,
625
+ "step": 88
626
+ },
627
+ {
628
+ "epoch": 5.933333333333334,
629
+ "grad_norm": 1.2681138440264965,
630
+ "learning_rate": 7.534092423052382e-06,
631
+ "loss": 1.0747,
632
+ "step": 89
633
+ },
634
+ {
635
+ "epoch": 6.0,
636
+ "grad_norm": 0.9582207978580328,
637
+ "learning_rate": 7.324716614707794e-06,
638
+ "loss": 0.8385,
639
+ "step": 90
640
+ },
641
+ {
642
+ "epoch": 6.066666666666666,
643
+ "grad_norm": 1.1698689314961477,
644
+ "learning_rate": 7.1165965949864934e-06,
645
+ "loss": 1.1033,
646
+ "step": 91
647
+ },
648
+ {
649
+ "epoch": 6.133333333333334,
650
+ "grad_norm": 1.3416716837210243,
651
+ "learning_rate": 6.909830056250527e-06,
652
+ "loss": 1.1822,
653
+ "step": 92
654
+ },
655
+ {
656
+ "epoch": 6.2,
657
+ "grad_norm": 1.0995942596498807,
658
+ "learning_rate": 6.704514055532597e-06,
659
+ "loss": 0.8676,
660
+ "step": 93
661
+ },
662
+ {
663
+ "epoch": 6.266666666666667,
664
+ "grad_norm": 1.4321467042913982,
665
+ "learning_rate": 6.500744968977116e-06,
666
+ "loss": 1.036,
667
+ "step": 94
668
+ },
669
+ {
670
+ "epoch": 6.333333333333333,
671
+ "grad_norm": 1.3088314218758716,
672
+ "learning_rate": 6.298618446600856e-06,
673
+ "loss": 0.8292,
674
+ "step": 95
675
+ },
676
+ {
677
+ "epoch": 6.4,
678
+ "grad_norm": 1.084823909937734,
679
+ "learning_rate": 6.098229367394455e-06,
680
+ "loss": 0.975,
681
+ "step": 96
682
+ },
683
+ {
684
+ "epoch": 6.466666666666667,
685
+ "grad_norm": 1.3218371701948628,
686
+ "learning_rate": 5.8996717947858395e-06,
687
+ "loss": 0.9402,
688
+ "step": 97
689
+ },
690
+ {
691
+ "epoch": 6.533333333333333,
692
+ "grad_norm": 1.1129487953662585,
693
+ "learning_rate": 5.7030389324864845e-06,
694
+ "loss": 0.8253,
695
+ "step": 98
696
+ },
697
+ {
698
+ "epoch": 6.6,
699
+ "grad_norm": 1.1419580401776912,
700
+ "learning_rate": 5.5084230807412135e-06,
701
+ "loss": 0.9734,
702
+ "step": 99
703
+ },
704
+ {
705
+ "epoch": 6.666666666666667,
706
+ "grad_norm": 1.0974795589959343,
707
+ "learning_rate": 5.3159155930021e-06,
708
+ "loss": 1.0441,
709
+ "step": 100
710
+ },
711
+ {
712
+ "epoch": 6.733333333333333,
713
+ "grad_norm": 1.324828991574355,
714
+ "learning_rate": 5.12560683304681e-06,
715
+ "loss": 0.8698,
716
+ "step": 101
717
+ },
718
+ {
719
+ "epoch": 6.8,
720
+ "grad_norm": 1.1620425079977543,
721
+ "learning_rate": 4.93758613256146e-06,
722
+ "loss": 0.916,
723
+ "step": 102
724
+ },
725
+ {
726
+ "epoch": 6.866666666666667,
727
+ "grad_norm": 1.298026477724516,
728
+ "learning_rate": 4.751941749207996e-06,
729
+ "loss": 0.8102,
730
+ "step": 103
731
+ },
732
+ {
733
+ "epoch": 6.933333333333334,
734
+ "grad_norm": 1.243701423436194,
735
+ "learning_rate": 4.568760825195671e-06,
736
+ "loss": 0.7848,
737
+ "step": 104
738
+ },
739
+ {
740
+ "epoch": 7.0,
741
+ "grad_norm": 1.0511054186542836,
742
+ "learning_rate": 4.388129346376177e-06,
743
+ "loss": 0.8403,
744
+ "step": 105
745
+ },
746
+ {
747
+ "epoch": 7.066666666666666,
748
+ "grad_norm": 1.0830500750727494,
749
+ "learning_rate": 4.210132101881516e-06,
750
+ "loss": 1.0224,
751
+ "step": 106
752
+ },
753
+ {
754
+ "epoch": 7.133333333333334,
755
+ "grad_norm": 1.191885763343317,
756
+ "learning_rate": 4.034852644323661e-06,
757
+ "loss": 0.8888,
758
+ "step": 107
759
+ },
760
+ {
761
+ "epoch": 7.2,
762
+ "grad_norm": 1.3962415711635006,
763
+ "learning_rate": 3.862373250574626e-06,
764
+ "loss": 0.9008,
765
+ "step": 108
766
+ },
767
+ {
768
+ "epoch": 7.266666666666667,
769
+ "grad_norm": 1.1538336817545218,
770
+ "learning_rate": 3.6927748831453835e-06,
771
+ "loss": 0.7594,
772
+ "step": 109
773
+ },
774
+ {
775
+ "epoch": 7.333333333333333,
776
+ "grad_norm": 1.3153809280781052,
777
+ "learning_rate": 3.5261371521817247e-06,
778
+ "loss": 0.8526,
779
+ "step": 110
780
+ },
781
+ {
782
+ "epoch": 7.4,
783
+ "grad_norm": 1.3264279555663367,
784
+ "learning_rate": 3.3625382780949576e-06,
785
+ "loss": 0.9908,
786
+ "step": 111
787
+ },
788
+ {
789
+ "epoch": 7.466666666666667,
790
+ "grad_norm": 1.5096221335051931,
791
+ "learning_rate": 3.2020550548449213e-06,
792
+ "loss": 0.9226,
793
+ "step": 112
794
+ },
795
+ {
796
+ "epoch": 7.533333333333333,
797
+ "grad_norm": 1.2307393476716613,
798
+ "learning_rate": 3.0447628138926153e-06,
799
+ "loss": 1.0507,
800
+ "step": 113
801
+ },
802
+ {
803
+ "epoch": 7.6,
804
+ "grad_norm": 1.6151399665431556,
805
+ "learning_rate": 2.8907353888392955e-06,
806
+ "loss": 0.9208,
807
+ "step": 114
808
+ },
809
+ {
810
+ "epoch": 7.666666666666667,
811
+ "grad_norm": 1.2245799893438452,
812
+ "learning_rate": 2.740045080768694e-06,
813
+ "loss": 0.8878,
814
+ "step": 115
815
+ },
816
+ {
817
+ "epoch": 7.733333333333333,
818
+ "grad_norm": 1.3690463927412484,
819
+ "learning_rate": 2.59276262430861e-06,
820
+ "loss": 0.9999,
821
+ "step": 116
822
+ },
823
+ {
824
+ "epoch": 7.8,
825
+ "grad_norm": 1.0835082652598607,
826
+ "learning_rate": 2.4489571544277944e-06,
827
+ "loss": 0.8532,
828
+ "step": 117
829
+ },
830
+ {
831
+ "epoch": 7.866666666666667,
832
+ "grad_norm": 1.2346213474649816,
833
+ "learning_rate": 2.308696173983711e-06,
834
+ "loss": 0.8705,
835
+ "step": 118
836
+ },
837
+ {
838
+ "epoch": 7.933333333333334,
839
+ "grad_norm": 1.1723472737281382,
840
+ "learning_rate": 2.1720455220364443e-06,
841
+ "loss": 1.0879,
842
+ "step": 119
843
+ },
844
+ {
845
+ "epoch": 8.0,
846
+ "grad_norm": 1.4073752757192692,
847
+ "learning_rate": 2.0390693429435626e-06,
848
+ "loss": 0.9452,
849
+ "step": 120
850
+ },
851
+ {
852
+ "epoch": 8.066666666666666,
853
+ "grad_norm": 1.50287195221356,
854
+ "learning_rate": 1.9098300562505266e-06,
855
+ "loss": 0.8373,
856
+ "step": 121
857
+ },
858
+ {
859
+ "epoch": 8.133333333333333,
860
+ "grad_norm": 1.1620276613706093,
861
+ "learning_rate": 1.784388327390687e-06,
862
+ "loss": 0.7806,
863
+ "step": 122
864
+ },
865
+ {
866
+ "epoch": 8.2,
867
+ "grad_norm": 1.3706625987581769,
868
+ "learning_rate": 1.6628030392087001e-06,
869
+ "loss": 0.9926,
870
+ "step": 123
871
+ },
872
+ {
873
+ "epoch": 8.266666666666667,
874
+ "grad_norm": 0.9859962643201381,
875
+ "learning_rate": 1.5451312643206828e-06,
876
+ "loss": 0.7548,
877
+ "step": 124
878
+ },
879
+ {
880
+ "epoch": 8.333333333333334,
881
+ "grad_norm": 1.3785850516874856,
882
+ "learning_rate": 1.4314282383241097e-06,
883
+ "loss": 0.9119,
884
+ "step": 125
885
+ },
886
+ {
887
+ "epoch": 8.4,
888
+ "grad_norm": 1.3114820954248407,
889
+ "learning_rate": 1.321747333869986e-06,
890
+ "loss": 1.0087,
891
+ "step": 126
892
+ },
893
+ {
894
+ "epoch": 8.466666666666667,
895
+ "grad_norm": 1.4511492872823224,
896
+ "learning_rate": 1.2161400356095376e-06,
897
+ "loss": 0.9118,
898
+ "step": 127
899
+ },
900
+ {
901
+ "epoch": 8.533333333333333,
902
+ "grad_norm": 1.3077491727116757,
903
+ "learning_rate": 1.1146559160270875e-06,
904
+ "loss": 0.8493,
905
+ "step": 128
906
+ },
907
+ {
908
+ "epoch": 8.6,
909
+ "grad_norm": 1.2121934493369244,
910
+ "learning_rate": 1.0173426121705577e-06,
911
+ "loss": 0.8756,
912
+ "step": 129
913
+ },
914
+ {
915
+ "epoch": 8.666666666666666,
916
+ "grad_norm": 1.3513057171003726,
917
+ "learning_rate": 9.242458032904311e-07,
918
+ "loss": 0.8671,
919
+ "step": 130
920
+ },
921
+ {
922
+ "epoch": 8.733333333333333,
923
+ "grad_norm": 1.7742909013104993,
924
+ "learning_rate": 8.354091893977401e-07,
925
+ "loss": 1.0612,
926
+ "step": 131
927
+ },
928
+ {
929
+ "epoch": 8.8,
930
+ "grad_norm": 1.323453973832503,
931
+ "learning_rate": 7.508744707511118e-07,
932
+ "loss": 1.0907,
933
+ "step": 132
934
+ },
935
+ {
936
+ "epoch": 8.866666666666667,
937
+ "grad_norm": 1.5726657249632015,
938
+ "learning_rate": 6.70681328282492e-07,
939
+ "loss": 1.1042,
940
+ "step": 133
941
+ },
942
+ {
943
+ "epoch": 8.933333333333334,
944
+ "grad_norm": 1.6611333460302735,
945
+ "learning_rate": 5.948674049707604e-07,
946
+ "loss": 0.9262,
947
+ "step": 134
948
+ },
949
+ {
950
+ "epoch": 9.0,
951
+ "grad_norm": 1.1742790020667146,
952
+ "learning_rate": 5.234682881719766e-07,
953
+ "loss": 0.9672,
954
+ "step": 135
955
+ },
956
+ {
957
+ "epoch": 9.066666666666666,
958
+ "grad_norm": 1.0761169784949698,
959
+ "learning_rate": 4.5651749291451884e-07,
960
+ "loss": 0.8506,
961
+ "step": 136
962
+ },
963
+ {
964
+ "epoch": 9.133333333333333,
965
+ "grad_norm": 1.3886579936980605,
966
+ "learning_rate": 3.940464461670135e-07,
967
+ "loss": 1.0981,
968
+ "step": 137
969
+ },
970
+ {
971
+ "epoch": 9.2,
972
+ "grad_norm": 1.3056666968807966,
973
+ "learning_rate": 3.360844720863765e-07,
974
+ "loss": 0.9153,
975
+ "step": 138
976
+ },
977
+ {
978
+ "epoch": 9.266666666666667,
979
+ "grad_norm": 0.9871679254938126,
980
+ "learning_rate": 2.826587782529444e-07,
981
+ "loss": 1.0896,
982
+ "step": 139
983
+ },
984
+ {
985
+ "epoch": 9.333333333333334,
986
+ "grad_norm": 1.2366625168342313,
987
+ "learning_rate": 2.3379444289913344e-07,
988
+ "loss": 1.0518,
989
+ "step": 140
990
+ },
991
+ {
992
+ "epoch": 9.4,
993
+ "grad_norm": 1.2975380970054535,
994
+ "learning_rate": 1.8951440313760838e-07,
995
+ "loss": 0.8743,
996
+ "step": 141
997
+ },
998
+ {
999
+ "epoch": 9.466666666666667,
1000
+ "grad_norm": 1.1663276705416328,
1001
+ "learning_rate": 1.4983944419451613e-07,
1002
+ "loss": 0.8289,
1003
+ "step": 142
1004
+ },
1005
+ {
1006
+ "epoch": 9.533333333333333,
1007
+ "grad_norm": 0.8248741509562691,
1008
+ "learning_rate": 1.1478818965281912e-07,
1009
+ "loss": 0.8659,
1010
+ "step": 143
1011
+ },
1012
+ {
1013
+ "epoch": 9.6,
1014
+ "grad_norm": 1.1851143756826896,
1015
+ "learning_rate": 8.437709271030603e-08,
1016
+ "loss": 0.9649,
1017
+ "step": 144
1018
+ },
1019
+ {
1020
+ "epoch": 9.666666666666666,
1021
+ "grad_norm": 1.507015449593647,
1022
+ "learning_rate": 5.862042845640403e-08,
1023
+ "loss": 1.0538,
1024
+ "step": 145
1025
+ },
1026
+ {
1027
+ "epoch": 9.733333333333333,
1028
+ "grad_norm": 1.188730734080061,
1029
+ "learning_rate": 3.753028717138785e-08,
1030
+ "loss": 0.8341,
1031
+ "step": 146
1032
+ },
1033
+ {
1034
+ "epoch": 9.8,
1035
+ "grad_norm": 1.2919573593809717,
1036
+ "learning_rate": 2.1116568651156076e-08,
1037
+ "loss": 0.7354,
1038
+ "step": 147
1039
+ },
1040
+ {
1041
+ "epoch": 9.866666666666667,
1042
+ "grad_norm": 1.2064234964836027,
1043
+ "learning_rate": 9.38697756023288e-09,
1044
+ "loss": 0.775,
1045
+ "step": 148
1046
+ },
1047
+ {
1048
+ "epoch": 9.933333333333334,
1049
+ "grad_norm": 1.454794110461292,
1050
+ "learning_rate": 2.347019815158724e-09,
1051
+ "loss": 1.0675,
1052
+ "step": 149
1053
+ },
1054
+ {
1055
+ "epoch": 10.0,
1056
+ "grad_norm": 1.3030482316707324,
1057
+ "learning_rate": 0.0,
1058
+ "loss": 0.7781,
1059
+ "step": 150
1060
+ },
1061
+ {
1062
+ "epoch": 10.0,
1063
+ "step": 150,
1064
+ "total_flos": 3.203109984455885e+17,
1065
+ "train_loss": 0.0,
1066
+ "train_runtime": 25.7604,
1067
+ "train_samples_per_second": 136.644,
1068
+ "train_steps_per_second": 5.823
1069
+ }
1070
+ ],
1071
+ "logging_steps": 1.0,
1072
+ "max_steps": 150,
1073
+ "num_input_tokens_seen": 0,
1074
+ "num_train_epochs": 10,
1075
+ "save_steps": 69,
1076
+ "stateful_callbacks": {
1077
+ "TrainerControl": {
1078
+ "args": {
1079
+ "should_epoch_stop": false,
1080
+ "should_evaluate": false,
1081
+ "should_log": false,
1082
+ "should_save": true,
1083
+ "should_training_stop": true
1084
+ },
1085
+ "attributes": {}
1086
+ }
1087
+ },
1088
+ "total_flos": 3.203109984455885e+17,
1089
+ "train_batch_size": 2,
1090
+ "trial_name": null,
1091
+ "trial_params": null
1092
+ }
training_args.bin CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:bfde16fe0cc0c31bf6c42ecd2af1d469811f9852c15b878341233a7dad4f6117
3
  size 6904
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:bc6dbc42ae60b17dea11ec26923f8d239c38528475a8b6e368c078b2ab8ecabd
3
  size 6904