{ "best_metric": null, "best_model_checkpoint": null, "epoch": 10.0, "eval_steps": 500, "global_step": 150, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.06666666666666667, "grad_norm": 3.4085312483246724, "learning_rate": 4.000000000000001e-06, "loss": 1.4028, "step": 1 }, { "epoch": 0.13333333333333333, "grad_norm": 4.666705759671598, "learning_rate": 8.000000000000001e-06, "loss": 1.2916, "step": 2 }, { "epoch": 0.2, "grad_norm": 3.871080407186316, "learning_rate": 1.2e-05, "loss": 1.3833, "step": 3 }, { "epoch": 0.26666666666666666, "grad_norm": 2.7124590679450193, "learning_rate": 1.6000000000000003e-05, "loss": 0.9761, "step": 4 }, { "epoch": 0.3333333333333333, "grad_norm": 2.071960200602384, "learning_rate": 2e-05, "loss": 1.3587, "step": 5 }, { "epoch": 0.4, "grad_norm": 1.648098466658743, "learning_rate": 1.999765298018484e-05, "loss": 0.8337, "step": 6 }, { "epoch": 0.4666666666666667, "grad_norm": 1.6253968845904598, "learning_rate": 1.999061302243977e-05, "loss": 1.0941, "step": 7 }, { "epoch": 0.5333333333333333, "grad_norm": 1.4301494839270958, "learning_rate": 1.9978883431348845e-05, "loss": 0.959, "step": 8 }, { "epoch": 0.6, "grad_norm": 1.5578987331272605, "learning_rate": 1.9962469712828613e-05, "loss": 1.0682, "step": 9 }, { "epoch": 0.6666666666666666, "grad_norm": 1.4627247576612574, "learning_rate": 1.9941379571543597e-05, "loss": 1.1677, "step": 10 }, { "epoch": 0.7333333333333333, "grad_norm": 1.6114807558199653, "learning_rate": 1.9915622907289695e-05, "loss": 1.1538, "step": 11 }, { "epoch": 0.8, "grad_norm": 1.2878501917792624, "learning_rate": 1.9885211810347185e-05, "loss": 1.1649, "step": 12 }, { "epoch": 0.8666666666666667, "grad_norm": 1.6334765738880663, "learning_rate": 1.9850160555805485e-05, "loss": 0.9951, "step": 13 }, { "epoch": 0.9333333333333333, "grad_norm": 1.628821939921328, "learning_rate": 1.981048559686239e-05, "loss": 0.9233, "step": 14 }, { "epoch": 1.0, "grad_norm": 1.339302435711646, "learning_rate": 1.976620555710087e-05, "loss": 1.0353, "step": 15 }, { "epoch": 1.0666666666666667, "grad_norm": 1.1556672707686442, "learning_rate": 1.9717341221747056e-05, "loss": 0.9605, "step": 16 }, { "epoch": 1.1333333333333333, "grad_norm": 1.2387154465086059, "learning_rate": 1.9663915527913628e-05, "loss": 1.1088, "step": 17 }, { "epoch": 1.2, "grad_norm": 1.1394015037618388, "learning_rate": 1.9605953553832987e-05, "loss": 1.1281, "step": 18 }, { "epoch": 1.2666666666666666, "grad_norm": 1.0626133768253427, "learning_rate": 1.9543482507085484e-05, "loss": 1.0368, "step": 19 }, { "epoch": 1.3333333333333333, "grad_norm": 1.391951038364559, "learning_rate": 1.9476531711828027e-05, "loss": 1.0803, "step": 20 }, { "epoch": 1.4, "grad_norm": 1.2604998479257097, "learning_rate": 1.940513259502924e-05, "loss": 1.0545, "step": 21 }, { "epoch": 1.4666666666666668, "grad_norm": 1.3683100627781444, "learning_rate": 1.932931867171751e-05, "loss": 1.0207, "step": 22 }, { "epoch": 1.5333333333333332, "grad_norm": 1.0663814943522483, "learning_rate": 1.924912552924889e-05, "loss": 0.9533, "step": 23 }, { "epoch": 1.6, "grad_norm": 1.064831041129997, "learning_rate": 1.9164590810602262e-05, "loss": 0.8148, "step": 24 }, { "epoch": 1.6666666666666665, "grad_norm": 0.9739867731832403, "learning_rate": 1.9075754196709574e-05, "loss": 0.9337, "step": 25 }, { "epoch": 1.7333333333333334, "grad_norm": 1.2675282274463724, "learning_rate": 1.8982657387829447e-05, "loss": 1.0805, "step": 26 }, { "epoch": 1.8, "grad_norm": 0.9372218377939878, "learning_rate": 1.8885344083972912e-05, "loss": 1.0695, "step": 27 }, { "epoch": 1.8666666666666667, "grad_norm": 1.3431500053349323, "learning_rate": 1.8783859964390466e-05, "loss": 1.1591, "step": 28 }, { "epoch": 1.9333333333333333, "grad_norm": 1.1202612444362305, "learning_rate": 1.8678252666130016e-05, "loss": 0.968, "step": 29 }, { "epoch": 2.0, "grad_norm": 1.2260350955015997, "learning_rate": 1.8568571761675893e-05, "loss": 0.9043, "step": 30 }, { "epoch": 2.066666666666667, "grad_norm": 1.0478158856201552, "learning_rate": 1.845486873567932e-05, "loss": 1.1587, "step": 31 }, { "epoch": 2.1333333333333333, "grad_norm": 1.0874714452657954, "learning_rate": 1.8337196960791305e-05, "loss": 0.9252, "step": 32 }, { "epoch": 2.2, "grad_norm": 0.9752649031044559, "learning_rate": 1.8215611672609316e-05, "loss": 1.0202, "step": 33 }, { "epoch": 2.2666666666666666, "grad_norm": 1.0434763245427732, "learning_rate": 1.8090169943749477e-05, "loss": 0.996, "step": 34 }, { "epoch": 2.3333333333333335, "grad_norm": 1.1379594366750487, "learning_rate": 1.796093065705644e-05, "loss": 0.9925, "step": 35 }, { "epoch": 2.4, "grad_norm": 1.1948697336608844, "learning_rate": 1.782795447796356e-05, "loss": 1.2921, "step": 36 }, { "epoch": 2.466666666666667, "grad_norm": 1.221446681124953, "learning_rate": 1.769130382601629e-05, "loss": 0.8618, "step": 37 }, { "epoch": 2.533333333333333, "grad_norm": 1.0829408518691481, "learning_rate": 1.755104284557221e-05, "loss": 0.9958, "step": 38 }, { "epoch": 2.6, "grad_norm": 1.1500016708742549, "learning_rate": 1.7407237375691394e-05, "loss": 0.9654, "step": 39 }, { "epoch": 2.6666666666666665, "grad_norm": 1.2766994471456066, "learning_rate": 1.725995491923131e-05, "loss": 1.0478, "step": 40 }, { "epoch": 2.7333333333333334, "grad_norm": 1.1725464918998885, "learning_rate": 1.710926461116071e-05, "loss": 0.8262, "step": 41 }, { "epoch": 2.8, "grad_norm": 1.0893404581760975, "learning_rate": 1.6955237186107387e-05, "loss": 0.8965, "step": 42 }, { "epoch": 2.8666666666666667, "grad_norm": 0.9166278938019341, "learning_rate": 1.679794494515508e-05, "loss": 0.9818, "step": 43 }, { "epoch": 2.9333333333333336, "grad_norm": 1.0710933249027597, "learning_rate": 1.6637461721905047e-05, "loss": 0.952, "step": 44 }, { "epoch": 3.0, "grad_norm": 1.1331761656207147, "learning_rate": 1.647386284781828e-05, "loss": 0.916, "step": 45 }, { "epoch": 3.066666666666667, "grad_norm": 0.9564647379011718, "learning_rate": 1.6307225116854623e-05, "loss": 1.1324, "step": 46 }, { "epoch": 3.1333333333333333, "grad_norm": 0.8318197021971842, "learning_rate": 1.6137626749425377e-05, "loss": 0.9577, "step": 47 }, { "epoch": 3.2, "grad_norm": 1.248321661047559, "learning_rate": 1.5965147355676344e-05, "loss": 0.9331, "step": 48 }, { "epoch": 3.2666666666666666, "grad_norm": 1.1222614201620278, "learning_rate": 1.578986789811849e-05, "loss": 0.845, "step": 49 }, { "epoch": 3.3333333333333335, "grad_norm": 1.0274159778159633, "learning_rate": 1.5611870653623826e-05, "loss": 0.9643, "step": 50 }, { "epoch": 3.4, "grad_norm": 1.2499948768241727, "learning_rate": 1.543123917480433e-05, "loss": 0.8808, "step": 51 }, { "epoch": 3.466666666666667, "grad_norm": 1.0815573199440531, "learning_rate": 1.5248058250792008e-05, "loss": 0.8817, "step": 52 }, { "epoch": 3.533333333333333, "grad_norm": 1.153929296287051, "learning_rate": 1.506241386743854e-05, "loss": 0.994, "step": 53 }, { "epoch": 3.6, "grad_norm": 1.103492229784582, "learning_rate": 1.4874393166953194e-05, "loss": 0.8729, "step": 54 }, { "epoch": 3.6666666666666665, "grad_norm": 1.2133497016696713, "learning_rate": 1.4684084406997903e-05, "loss": 1.1275, "step": 55 }, { "epoch": 3.7333333333333334, "grad_norm": 1.3609462560361256, "learning_rate": 1.4491576919258794e-05, "loss": 1.1054, "step": 56 }, { "epoch": 3.8, "grad_norm": 0.9886233265547686, "learning_rate": 1.4296961067513519e-05, "loss": 0.9743, "step": 57 }, { "epoch": 3.8666666666666667, "grad_norm": 1.1745326799492681, "learning_rate": 1.4100328205214161e-05, "loss": 0.8838, "step": 58 }, { "epoch": 3.9333333333333336, "grad_norm": 1.3390216614348462, "learning_rate": 1.3901770632605546e-05, "loss": 1.0468, "step": 59 }, { "epoch": 4.0, "grad_norm": 1.014063659841383, "learning_rate": 1.3701381553399147e-05, "loss": 1.0688, "step": 60 }, { "epoch": 4.066666666666666, "grad_norm": 1.2635366819058482, "learning_rate": 1.3499255031022887e-05, "loss": 0.8666, "step": 61 }, { "epoch": 4.133333333333334, "grad_norm": 1.3025248294074614, "learning_rate": 1.3295485944467405e-05, "loss": 0.9334, "step": 62 }, { "epoch": 4.2, "grad_norm": 0.9545362380710669, "learning_rate": 1.3090169943749475e-05, "loss": 0.9013, "step": 63 }, { "epoch": 4.266666666666667, "grad_norm": 1.0710628345049782, "learning_rate": 1.288340340501351e-05, "loss": 0.9823, "step": 64 }, { "epoch": 4.333333333333333, "grad_norm": 1.133254418294951, "learning_rate": 1.2675283385292212e-05, "loss": 1.0442, "step": 65 }, { "epoch": 4.4, "grad_norm": 1.10114922731124, "learning_rate": 1.2465907576947623e-05, "loss": 0.913, "step": 66 }, { "epoch": 4.466666666666667, "grad_norm": 1.2375740608897428, "learning_rate": 1.2255374261813944e-05, "loss": 1.0133, "step": 67 }, { "epoch": 4.533333333333333, "grad_norm": 0.9760429622715396, "learning_rate": 1.204378226506365e-05, "loss": 0.7568, "step": 68 }, { "epoch": 4.6, "grad_norm": 1.489210275369955, "learning_rate": 1.1831230908818563e-05, "loss": 0.779, "step": 69 }, { "epoch": 4.666666666666667, "grad_norm": 1.1933378195744682, "learning_rate": 1.161781996552765e-05, "loss": 1.2456, "step": 70 }, { "epoch": 4.733333333333333, "grad_norm": 0.9862661993909408, "learning_rate": 1.1403649611133444e-05, "loss": 0.9868, "step": 71 }, { "epoch": 4.8, "grad_norm": 1.2076305842024768, "learning_rate": 1.1188820378049066e-05, "loss": 1.0797, "step": 72 }, { "epoch": 4.866666666666667, "grad_norm": 1.2607815569078051, "learning_rate": 1.0973433107967901e-05, "loss": 0.9826, "step": 73 }, { "epoch": 4.933333333333334, "grad_norm": 1.094147617295901, "learning_rate": 1.0757588904528106e-05, "loss": 0.8119, "step": 74 }, { "epoch": 5.0, "grad_norm": 1.1121751761899872, "learning_rate": 1.0541389085854177e-05, "loss": 0.9773, "step": 75 }, { "epoch": 5.066666666666666, "grad_norm": 1.0579179415785263, "learning_rate": 1.0324935136997807e-05, "loss": 0.9678, "step": 76 }, { "epoch": 5.133333333333334, "grad_norm": 1.3395230330750847, "learning_rate": 1.0108328662300399e-05, "loss": 0.7061, "step": 77 }, { "epoch": 5.2, "grad_norm": 1.1999310932391165, "learning_rate": 9.891671337699603e-06, "loss": 0.8735, "step": 78 }, { "epoch": 5.266666666666667, "grad_norm": 1.010683429579378, "learning_rate": 9.675064863002196e-06, "loss": 0.8371, "step": 79 }, { "epoch": 5.333333333333333, "grad_norm": 1.2108378582218189, "learning_rate": 9.458610914145826e-06, "loss": 1.181, "step": 80 }, { "epoch": 5.4, "grad_norm": 1.18004488850976, "learning_rate": 9.242411095471897e-06, "loss": 1.0823, "step": 81 }, { "epoch": 5.466666666666667, "grad_norm": 1.0454083723550043, "learning_rate": 9.026566892032104e-06, "loss": 0.9903, "step": 82 }, { "epoch": 5.533333333333333, "grad_norm": 1.0667864315015048, "learning_rate": 8.811179621950937e-06, "loss": 0.8442, "step": 83 }, { "epoch": 5.6, "grad_norm": 1.2020765015122372, "learning_rate": 8.596350388866557e-06, "loss": 0.8857, "step": 84 }, { "epoch": 5.666666666666667, "grad_norm": 1.4131091155815, "learning_rate": 8.382180034472353e-06, "loss": 0.9864, "step": 85 }, { "epoch": 5.733333333333333, "grad_norm": 1.486362030270159, "learning_rate": 8.168769091181439e-06, "loss": 0.9574, "step": 86 }, { "epoch": 5.8, "grad_norm": 1.313551073594268, "learning_rate": 7.956217734936353e-06, "loss": 0.9289, "step": 87 }, { "epoch": 5.866666666666667, "grad_norm": 1.3192481257399435, "learning_rate": 7.74462573818606e-06, "loss": 0.9545, "step": 88 }, { "epoch": 5.933333333333334, "grad_norm": 1.2681138440264965, "learning_rate": 7.534092423052382e-06, "loss": 1.0747, "step": 89 }, { "epoch": 6.0, "grad_norm": 0.9582207978580328, "learning_rate": 7.324716614707794e-06, "loss": 0.8385, "step": 90 }, { "epoch": 6.066666666666666, "grad_norm": 1.1698689314961477, "learning_rate": 7.1165965949864934e-06, "loss": 1.1033, "step": 91 }, { "epoch": 6.133333333333334, "grad_norm": 1.3416716837210243, "learning_rate": 6.909830056250527e-06, "loss": 1.1822, "step": 92 }, { "epoch": 6.2, "grad_norm": 1.0995942596498807, "learning_rate": 6.704514055532597e-06, "loss": 0.8676, "step": 93 }, { "epoch": 6.266666666666667, "grad_norm": 1.4321467042913982, "learning_rate": 6.500744968977116e-06, "loss": 1.036, "step": 94 }, { "epoch": 6.333333333333333, "grad_norm": 1.3088314218758716, "learning_rate": 6.298618446600856e-06, "loss": 0.8292, "step": 95 }, { "epoch": 6.4, "grad_norm": 1.084823909937734, "learning_rate": 6.098229367394455e-06, "loss": 0.975, "step": 96 }, { "epoch": 6.466666666666667, "grad_norm": 1.3218371701948628, "learning_rate": 5.8996717947858395e-06, "loss": 0.9402, "step": 97 }, { "epoch": 6.533333333333333, "grad_norm": 1.1129487953662585, "learning_rate": 5.7030389324864845e-06, "loss": 0.8253, "step": 98 }, { "epoch": 6.6, "grad_norm": 1.1419580401776912, "learning_rate": 5.5084230807412135e-06, "loss": 0.9734, "step": 99 }, { "epoch": 6.666666666666667, "grad_norm": 1.0974795589959343, "learning_rate": 5.3159155930021e-06, "loss": 1.0441, "step": 100 }, { "epoch": 6.733333333333333, "grad_norm": 1.324828991574355, "learning_rate": 5.12560683304681e-06, "loss": 0.8698, "step": 101 }, { "epoch": 6.8, "grad_norm": 1.1620425079977543, "learning_rate": 4.93758613256146e-06, "loss": 0.916, "step": 102 }, { "epoch": 6.866666666666667, "grad_norm": 1.298026477724516, "learning_rate": 4.751941749207996e-06, "loss": 0.8102, "step": 103 }, { "epoch": 6.933333333333334, "grad_norm": 1.243701423436194, "learning_rate": 4.568760825195671e-06, "loss": 0.7848, "step": 104 }, { "epoch": 7.0, "grad_norm": 1.0511054186542836, "learning_rate": 4.388129346376177e-06, "loss": 0.8403, "step": 105 }, { "epoch": 7.066666666666666, "grad_norm": 1.0830500750727494, "learning_rate": 4.210132101881516e-06, "loss": 1.0224, "step": 106 }, { "epoch": 7.133333333333334, "grad_norm": 1.191885763343317, "learning_rate": 4.034852644323661e-06, "loss": 0.8888, "step": 107 }, { "epoch": 7.2, "grad_norm": 1.3962415711635006, "learning_rate": 3.862373250574626e-06, "loss": 0.9008, "step": 108 }, { "epoch": 7.266666666666667, "grad_norm": 1.1538336817545218, "learning_rate": 3.6927748831453835e-06, "loss": 0.7594, "step": 109 }, { "epoch": 7.333333333333333, "grad_norm": 1.3153809280781052, "learning_rate": 3.5261371521817247e-06, "loss": 0.8526, "step": 110 }, { "epoch": 7.4, "grad_norm": 1.3264279555663367, "learning_rate": 3.3625382780949576e-06, "loss": 0.9908, "step": 111 }, { "epoch": 7.466666666666667, "grad_norm": 1.5096221335051931, "learning_rate": 3.2020550548449213e-06, "loss": 0.9226, "step": 112 }, { "epoch": 7.533333333333333, "grad_norm": 1.2307393476716613, "learning_rate": 3.0447628138926153e-06, "loss": 1.0507, "step": 113 }, { "epoch": 7.6, "grad_norm": 1.6151399665431556, "learning_rate": 2.8907353888392955e-06, "loss": 0.9208, "step": 114 }, { "epoch": 7.666666666666667, "grad_norm": 1.2245799893438452, "learning_rate": 2.740045080768694e-06, "loss": 0.8878, "step": 115 }, { "epoch": 7.733333333333333, "grad_norm": 1.3690463927412484, "learning_rate": 2.59276262430861e-06, "loss": 0.9999, "step": 116 }, { "epoch": 7.8, "grad_norm": 1.0835082652598607, "learning_rate": 2.4489571544277944e-06, "loss": 0.8532, "step": 117 }, { "epoch": 7.866666666666667, "grad_norm": 1.2346213474649816, "learning_rate": 2.308696173983711e-06, "loss": 0.8705, "step": 118 }, { "epoch": 7.933333333333334, "grad_norm": 1.1723472737281382, "learning_rate": 2.1720455220364443e-06, "loss": 1.0879, "step": 119 }, { "epoch": 8.0, "grad_norm": 1.4073752757192692, "learning_rate": 2.0390693429435626e-06, "loss": 0.9452, "step": 120 }, { "epoch": 8.066666666666666, "grad_norm": 1.50287195221356, "learning_rate": 1.9098300562505266e-06, "loss": 0.8373, "step": 121 }, { "epoch": 8.133333333333333, "grad_norm": 1.1620276613706093, "learning_rate": 1.784388327390687e-06, "loss": 0.7806, "step": 122 }, { "epoch": 8.2, "grad_norm": 1.3706625987581769, "learning_rate": 1.6628030392087001e-06, "loss": 0.9926, "step": 123 }, { "epoch": 8.266666666666667, "grad_norm": 0.9859962643201381, "learning_rate": 1.5451312643206828e-06, "loss": 0.7548, "step": 124 }, { "epoch": 8.333333333333334, "grad_norm": 1.3785850516874856, "learning_rate": 1.4314282383241097e-06, "loss": 0.9119, "step": 125 }, { "epoch": 8.4, "grad_norm": 1.3114820954248407, "learning_rate": 1.321747333869986e-06, "loss": 1.0087, "step": 126 }, { "epoch": 8.466666666666667, "grad_norm": 1.4511492872823224, "learning_rate": 1.2161400356095376e-06, "loss": 0.9118, "step": 127 }, { "epoch": 8.533333333333333, "grad_norm": 1.3077491727116757, "learning_rate": 1.1146559160270875e-06, "loss": 0.8493, "step": 128 }, { "epoch": 8.6, "grad_norm": 1.2121934493369244, "learning_rate": 1.0173426121705577e-06, "loss": 0.8756, "step": 129 }, { "epoch": 8.666666666666666, "grad_norm": 1.3513057171003726, "learning_rate": 9.242458032904311e-07, "loss": 0.8671, "step": 130 }, { "epoch": 8.733333333333333, "grad_norm": 1.7742909013104993, "learning_rate": 8.354091893977401e-07, "loss": 1.0612, "step": 131 }, { "epoch": 8.8, "grad_norm": 1.323453973832503, "learning_rate": 7.508744707511118e-07, "loss": 1.0907, "step": 132 }, { "epoch": 8.866666666666667, "grad_norm": 1.5726657249632015, "learning_rate": 6.70681328282492e-07, "loss": 1.1042, "step": 133 }, { "epoch": 8.933333333333334, "grad_norm": 1.6611333460302735, "learning_rate": 5.948674049707604e-07, "loss": 0.9262, "step": 134 }, { "epoch": 9.0, "grad_norm": 1.1742790020667146, "learning_rate": 5.234682881719766e-07, "loss": 0.9672, "step": 135 }, { "epoch": 9.066666666666666, "grad_norm": 1.0761169784949698, "learning_rate": 4.5651749291451884e-07, "loss": 0.8506, "step": 136 }, { "epoch": 9.133333333333333, "grad_norm": 1.3886579936980605, "learning_rate": 3.940464461670135e-07, "loss": 1.0981, "step": 137 }, { "epoch": 9.2, "grad_norm": 1.3056666968807966, "learning_rate": 3.360844720863765e-07, "loss": 0.9153, "step": 138 }, { "epoch": 9.266666666666667, "grad_norm": 0.9871679254938126, "learning_rate": 2.826587782529444e-07, "loss": 1.0896, "step": 139 }, { "epoch": 9.333333333333334, "grad_norm": 1.2366625168342313, "learning_rate": 2.3379444289913344e-07, "loss": 1.0518, "step": 140 }, { "epoch": 9.4, "grad_norm": 1.2975380970054535, "learning_rate": 1.8951440313760838e-07, "loss": 0.8743, "step": 141 }, { "epoch": 9.466666666666667, "grad_norm": 1.1663276705416328, "learning_rate": 1.4983944419451613e-07, "loss": 0.8289, "step": 142 }, { "epoch": 9.533333333333333, "grad_norm": 0.8248741509562691, "learning_rate": 1.1478818965281912e-07, "loss": 0.8659, "step": 143 }, { "epoch": 9.6, "grad_norm": 1.1851143756826896, "learning_rate": 8.437709271030603e-08, "loss": 0.9649, "step": 144 }, { "epoch": 9.666666666666666, "grad_norm": 1.507015449593647, "learning_rate": 5.862042845640403e-08, "loss": 1.0538, "step": 145 }, { "epoch": 9.733333333333333, "grad_norm": 1.188730734080061, "learning_rate": 3.753028717138785e-08, "loss": 0.8341, "step": 146 }, { "epoch": 9.8, "grad_norm": 1.2919573593809717, "learning_rate": 2.1116568651156076e-08, "loss": 0.7354, "step": 147 }, { "epoch": 9.866666666666667, "grad_norm": 1.2064234964836027, "learning_rate": 9.38697756023288e-09, "loss": 0.775, "step": 148 }, { "epoch": 9.933333333333334, "grad_norm": 1.454794110461292, "learning_rate": 2.347019815158724e-09, "loss": 1.0675, "step": 149 }, { "epoch": 10.0, "grad_norm": 1.3030482316707324, "learning_rate": 0.0, "loss": 0.7781, "step": 150 }, { "epoch": 10.0, "step": 150, "total_flos": 3.203109984455885e+17, "train_loss": 0.0, "train_runtime": 25.7604, "train_samples_per_second": 136.644, "train_steps_per_second": 5.823 } ], "logging_steps": 1.0, "max_steps": 150, "num_input_tokens_seen": 0, "num_train_epochs": 10, "save_steps": 69, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 3.203109984455885e+17, "train_batch_size": 2, "trial_name": null, "trial_params": null }