{ "best_metric": null, "best_model_checkpoint": null, "epoch": 2.0, "eval_steps": 500, "global_step": 300, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.006666666666666667, "grad_norm": 0.1458676182420363, "learning_rate": 3.3333333333333333e-06, "loss": 0.3176, "step": 1 }, { "epoch": 0.013333333333333334, "grad_norm": 0.06297500591413621, "learning_rate": 6.666666666666667e-06, "loss": 0.0739, "step": 2 }, { "epoch": 0.02, "grad_norm": 0.10965054796208855, "learning_rate": 1e-05, "loss": 0.1325, "step": 3 }, { "epoch": 0.02666666666666667, "grad_norm": 0.14572620399303748, "learning_rate": 1.3333333333333333e-05, "loss": 0.1585, "step": 4 }, { "epoch": 0.03333333333333333, "grad_norm": 0.12529022217128674, "learning_rate": 1.6666666666666667e-05, "loss": 0.1844, "step": 5 }, { "epoch": 0.04, "grad_norm": 0.09445699978047582, "learning_rate": 2e-05, "loss": 0.1542, "step": 6 }, { "epoch": 0.04666666666666667, "grad_norm": 0.09833116480123368, "learning_rate": 2.3333333333333336e-05, "loss": 0.1673, "step": 7 }, { "epoch": 0.05333333333333334, "grad_norm": 0.07597745346667391, "learning_rate": 2.6666666666666667e-05, "loss": 0.1951, "step": 8 }, { "epoch": 0.06, "grad_norm": 0.140980113781321, "learning_rate": 3e-05, "loss": 0.2214, "step": 9 }, { "epoch": 0.06666666666666667, "grad_norm": 0.08328819260042881, "learning_rate": 3.3333333333333335e-05, "loss": 0.0889, "step": 10 }, { "epoch": 0.07333333333333333, "grad_norm": 0.047492995264302104, "learning_rate": 3.6666666666666666e-05, "loss": 0.0797, "step": 11 }, { "epoch": 0.08, "grad_norm": 0.18228622024209587, "learning_rate": 4e-05, "loss": 0.2164, "step": 12 }, { "epoch": 0.08666666666666667, "grad_norm": 0.18241056021723157, "learning_rate": 4.3333333333333334e-05, "loss": 0.3628, "step": 13 }, { "epoch": 0.09333333333333334, "grad_norm": 0.18299722112745884, "learning_rate": 4.666666666666667e-05, "loss": 0.3974, "step": 14 }, { "epoch": 0.1, "grad_norm": 0.1881953323891401, "learning_rate": 5e-05, "loss": 0.3013, "step": 15 }, { "epoch": 0.10666666666666667, "grad_norm": 0.08114481229080911, "learning_rate": 5.333333333333333e-05, "loss": 0.0872, "step": 16 }, { "epoch": 0.11333333333333333, "grad_norm": 0.1377919721753016, "learning_rate": 5.666666666666667e-05, "loss": 0.0834, "step": 17 }, { "epoch": 0.12, "grad_norm": 0.18039198158290673, "learning_rate": 6e-05, "loss": 0.1386, "step": 18 }, { "epoch": 0.12666666666666668, "grad_norm": 0.11894612524969389, "learning_rate": 6.333333333333333e-05, "loss": 0.1253, "step": 19 }, { "epoch": 0.13333333333333333, "grad_norm": 0.18200541298309192, "learning_rate": 6.666666666666667e-05, "loss": 0.2956, "step": 20 }, { "epoch": 0.14, "grad_norm": 0.03876155072611655, "learning_rate": 7e-05, "loss": 0.0391, "step": 21 }, { "epoch": 0.14666666666666667, "grad_norm": 0.33528917605547737, "learning_rate": 7.333333333333333e-05, "loss": 0.2333, "step": 22 }, { "epoch": 0.15333333333333332, "grad_norm": 0.3653124486741407, "learning_rate": 7.666666666666667e-05, "loss": 0.239, "step": 23 }, { "epoch": 0.16, "grad_norm": 0.10227962698176309, "learning_rate": 8e-05, "loss": 0.0939, "step": 24 }, { "epoch": 0.16666666666666666, "grad_norm": 0.16201798352453822, "learning_rate": 8.333333333333334e-05, "loss": 0.1329, "step": 25 }, { "epoch": 0.17333333333333334, "grad_norm": 0.13840410994744334, "learning_rate": 8.666666666666667e-05, "loss": 0.1467, "step": 26 }, { "epoch": 0.18, "grad_norm": 0.05335185773278762, "learning_rate": 9e-05, "loss": 0.0238, "step": 27 }, { "epoch": 0.18666666666666668, "grad_norm": 0.16825452664165716, "learning_rate": 9.333333333333334e-05, "loss": 0.1621, "step": 28 }, { "epoch": 0.19333333333333333, "grad_norm": 0.14415212219898255, "learning_rate": 9.666666666666667e-05, "loss": 0.139, "step": 29 }, { "epoch": 0.2, "grad_norm": 0.20244980847754807, "learning_rate": 0.0001, "loss": 0.1208, "step": 30 }, { "epoch": 0.20666666666666667, "grad_norm": 0.057982814638854976, "learning_rate": 9.999661540018812e-05, "loss": 0.0365, "step": 31 }, { "epoch": 0.21333333333333335, "grad_norm": 0.050494073244039574, "learning_rate": 9.998646205897309e-05, "loss": 0.0376, "step": 32 }, { "epoch": 0.22, "grad_norm": 0.0796546713001581, "learning_rate": 9.99695413509548e-05, "loss": 0.0591, "step": 33 }, { "epoch": 0.22666666666666666, "grad_norm": 0.2075683293740379, "learning_rate": 9.994585556692624e-05, "loss": 0.1704, "step": 34 }, { "epoch": 0.23333333333333334, "grad_norm": 0.14086085319033614, "learning_rate": 9.991540791356342e-05, "loss": 0.0913, "step": 35 }, { "epoch": 0.24, "grad_norm": 0.08040957158353555, "learning_rate": 9.987820251299122e-05, "loss": 0.0452, "step": 36 }, { "epoch": 0.24666666666666667, "grad_norm": 0.07097711660728279, "learning_rate": 9.983424440222531e-05, "loss": 0.0793, "step": 37 }, { "epoch": 0.25333333333333335, "grad_norm": 0.09874017222016726, "learning_rate": 9.978353953249022e-05, "loss": 0.0418, "step": 38 }, { "epoch": 0.26, "grad_norm": 0.04901412712216988, "learning_rate": 9.972609476841367e-05, "loss": 0.0286, "step": 39 }, { "epoch": 0.26666666666666666, "grad_norm": 0.14978770224354165, "learning_rate": 9.966191788709716e-05, "loss": 0.0752, "step": 40 }, { "epoch": 0.2733333333333333, "grad_norm": 0.19930785951000352, "learning_rate": 9.959101757706308e-05, "loss": 0.096, "step": 41 }, { "epoch": 0.28, "grad_norm": 0.07459492757920842, "learning_rate": 9.951340343707852e-05, "loss": 0.0452, "step": 42 }, { "epoch": 0.2866666666666667, "grad_norm": 0.0870168890854328, "learning_rate": 9.942908597485558e-05, "loss": 0.0366, "step": 43 }, { "epoch": 0.29333333333333333, "grad_norm": 0.10286523991486987, "learning_rate": 9.933807660562898e-05, "loss": 0.0437, "step": 44 }, { "epoch": 0.3, "grad_norm": 0.0628363242721665, "learning_rate": 9.924038765061042e-05, "loss": 0.0319, "step": 45 }, { "epoch": 0.30666666666666664, "grad_norm": 0.19411783178751676, "learning_rate": 9.913603233532067e-05, "loss": 0.0682, "step": 46 }, { "epoch": 0.31333333333333335, "grad_norm": 0.09655129169196189, "learning_rate": 9.902502478779896e-05, "loss": 0.0364, "step": 47 }, { "epoch": 0.32, "grad_norm": 0.043391903031894045, "learning_rate": 9.890738003669029e-05, "loss": 0.0167, "step": 48 }, { "epoch": 0.32666666666666666, "grad_norm": 0.028136119446689988, "learning_rate": 9.878311400921072e-05, "loss": 0.0094, "step": 49 }, { "epoch": 0.3333333333333333, "grad_norm": 0.19990875920189982, "learning_rate": 9.865224352899119e-05, "loss": 0.0591, "step": 50 }, { "epoch": 0.34, "grad_norm": 0.08127565709516123, "learning_rate": 9.851478631379982e-05, "loss": 0.0257, "step": 51 }, { "epoch": 0.3466666666666667, "grad_norm": 0.07578390986292642, "learning_rate": 9.837076097314319e-05, "loss": 0.0195, "step": 52 }, { "epoch": 0.35333333333333333, "grad_norm": 0.1145190605689261, "learning_rate": 9.822018700574695e-05, "loss": 0.0568, "step": 53 }, { "epoch": 0.36, "grad_norm": 0.013274676664202425, "learning_rate": 9.806308479691595e-05, "loss": 0.0037, "step": 54 }, { "epoch": 0.36666666666666664, "grad_norm": 0.09023602614740979, "learning_rate": 9.789947561577445e-05, "loss": 0.0251, "step": 55 }, { "epoch": 0.37333333333333335, "grad_norm": 0.031786573504672816, "learning_rate": 9.77293816123866e-05, "loss": 0.0038, "step": 56 }, { "epoch": 0.38, "grad_norm": 0.08600437859697443, "learning_rate": 9.755282581475769e-05, "loss": 0.0115, "step": 57 }, { "epoch": 0.38666666666666666, "grad_norm": 0.339765926197416, "learning_rate": 9.736983212571646e-05, "loss": 0.0172, "step": 58 }, { "epoch": 0.3933333333333333, "grad_norm": 0.13355273602854525, "learning_rate": 9.718042531967918e-05, "loss": 0.0463, "step": 59 }, { "epoch": 0.4, "grad_norm": 0.0528912423191638, "learning_rate": 9.698463103929542e-05, "loss": 0.0171, "step": 60 }, { "epoch": 0.4066666666666667, "grad_norm": 0.19993307288425893, "learning_rate": 9.678247579197657e-05, "loss": 0.0507, "step": 61 }, { "epoch": 0.41333333333333333, "grad_norm": 0.019958746575402614, "learning_rate": 9.657398694630712e-05, "loss": 0.0044, "step": 62 }, { "epoch": 0.42, "grad_norm": 0.06534407319746238, "learning_rate": 9.635919272833938e-05, "loss": 0.021, "step": 63 }, { "epoch": 0.4266666666666667, "grad_norm": 0.009956107837350434, "learning_rate": 9.613812221777212e-05, "loss": 0.0024, "step": 64 }, { "epoch": 0.43333333333333335, "grad_norm": 0.0753430335467929, "learning_rate": 9.591080534401371e-05, "loss": 0.0077, "step": 65 }, { "epoch": 0.44, "grad_norm": 0.033598952953223064, "learning_rate": 9.567727288213005e-05, "loss": 0.0081, "step": 66 }, { "epoch": 0.44666666666666666, "grad_norm": 0.06758226704866703, "learning_rate": 9.543755644867822e-05, "loss": 0.018, "step": 67 }, { "epoch": 0.4533333333333333, "grad_norm": 0.045285754601470565, "learning_rate": 9.519168849742604e-05, "loss": 0.0036, "step": 68 }, { "epoch": 0.46, "grad_norm": 0.005996331054205151, "learning_rate": 9.493970231495835e-05, "loss": 0.0012, "step": 69 }, { "epoch": 0.4666666666666667, "grad_norm": 0.05726929824198098, "learning_rate": 9.468163201617062e-05, "loss": 0.0043, "step": 70 }, { "epoch": 0.47333333333333333, "grad_norm": 0.1392050070964832, "learning_rate": 9.441751253965021e-05, "loss": 0.0206, "step": 71 }, { "epoch": 0.48, "grad_norm": 0.008309147404235117, "learning_rate": 9.414737964294636e-05, "loss": 0.0015, "step": 72 }, { "epoch": 0.4866666666666667, "grad_norm": 0.017322133207007526, "learning_rate": 9.38712698977291e-05, "loss": 0.0038, "step": 73 }, { "epoch": 0.49333333333333335, "grad_norm": 0.036791042422237324, "learning_rate": 9.358922068483812e-05, "loss": 0.0051, "step": 74 }, { "epoch": 0.5, "grad_norm": 0.02287466809307608, "learning_rate": 9.330127018922194e-05, "loss": 0.0037, "step": 75 }, { "epoch": 0.5066666666666667, "grad_norm": 0.01243264217793224, "learning_rate": 9.300745739476829e-05, "loss": 0.0013, "step": 76 }, { "epoch": 0.5133333333333333, "grad_norm": 0.024157104065878395, "learning_rate": 9.270782207902629e-05, "loss": 0.0046, "step": 77 }, { "epoch": 0.52, "grad_norm": 0.4745869029248455, "learning_rate": 9.24024048078213e-05, "loss": 0.1348, "step": 78 }, { "epoch": 0.5266666666666666, "grad_norm": 0.058608077635055315, "learning_rate": 9.209124692976287e-05, "loss": 0.0091, "step": 79 }, { "epoch": 0.5333333333333333, "grad_norm": 0.010317275680661547, "learning_rate": 9.177439057064683e-05, "loss": 0.0015, "step": 80 }, { "epoch": 0.54, "grad_norm": 0.03069779051236754, "learning_rate": 9.145187862775209e-05, "loss": 0.0045, "step": 81 }, { "epoch": 0.5466666666666666, "grad_norm": 0.008040389875014977, "learning_rate": 9.112375476403312e-05, "loss": 0.0009, "step": 82 }, { "epoch": 0.5533333333333333, "grad_norm": 0.19044333979129963, "learning_rate": 9.079006340220862e-05, "loss": 0.0286, "step": 83 }, { "epoch": 0.56, "grad_norm": 0.0049932152567284446, "learning_rate": 9.045084971874738e-05, "loss": 0.0006, "step": 84 }, { "epoch": 0.5666666666666667, "grad_norm": 0.08405647778053042, "learning_rate": 9.01061596377522e-05, "loss": 0.0123, "step": 85 }, { "epoch": 0.5733333333333334, "grad_norm": 0.0020879396871698063, "learning_rate": 8.97560398247424e-05, "loss": 0.0003, "step": 86 }, { "epoch": 0.58, "grad_norm": 0.006700887739820671, "learning_rate": 8.940053768033609e-05, "loss": 0.0008, "step": 87 }, { "epoch": 0.5866666666666667, "grad_norm": 0.047992576472715855, "learning_rate": 8.903970133383297e-05, "loss": 0.0047, "step": 88 }, { "epoch": 0.5933333333333334, "grad_norm": 0.13855831394191526, "learning_rate": 8.86735796366982e-05, "loss": 0.0703, "step": 89 }, { "epoch": 0.6, "grad_norm": 0.009456330260428669, "learning_rate": 8.83022221559489e-05, "loss": 0.0017, "step": 90 }, { "epoch": 0.6066666666666667, "grad_norm": 0.007773181864456804, "learning_rate": 8.792567916744346e-05, "loss": 0.0013, "step": 91 }, { "epoch": 0.6133333333333333, "grad_norm": 0.09978095350246738, "learning_rate": 8.754400164907497e-05, "loss": 0.0456, "step": 92 }, { "epoch": 0.62, "grad_norm": 0.0877256767735217, "learning_rate": 8.715724127386972e-05, "loss": 0.0112, "step": 93 }, { "epoch": 0.6266666666666667, "grad_norm": 0.009571755173022112, "learning_rate": 8.676545040299145e-05, "loss": 0.001, "step": 94 }, { "epoch": 0.6333333333333333, "grad_norm": 0.0012187740440864692, "learning_rate": 8.636868207865244e-05, "loss": 0.0002, "step": 95 }, { "epoch": 0.64, "grad_norm": 0.08797882323898706, "learning_rate": 8.596699001693255e-05, "loss": 0.031, "step": 96 }, { "epoch": 0.6466666666666666, "grad_norm": 0.055547457956810375, "learning_rate": 8.556042860050687e-05, "loss": 0.0043, "step": 97 }, { "epoch": 0.6533333333333333, "grad_norm": 0.01951698322606536, "learning_rate": 8.51490528712831e-05, "loss": 0.003, "step": 98 }, { "epoch": 0.66, "grad_norm": 0.1280621442041014, "learning_rate": 8.473291852294987e-05, "loss": 0.0339, "step": 99 }, { "epoch": 0.6666666666666666, "grad_norm": 0.03201540686138474, "learning_rate": 8.43120818934367e-05, "loss": 0.0051, "step": 100 }, { "epoch": 0.6733333333333333, "grad_norm": 0.010634043353550981, "learning_rate": 8.388659995728663e-05, "loss": 0.0023, "step": 101 }, { "epoch": 0.68, "grad_norm": 0.004114104727120306, "learning_rate": 8.345653031794292e-05, "loss": 0.0008, "step": 102 }, { "epoch": 0.6866666666666666, "grad_norm": 0.05338381531211917, "learning_rate": 8.302193119995039e-05, "loss": 0.0116, "step": 103 }, { "epoch": 0.6933333333333334, "grad_norm": 0.004080093518233031, "learning_rate": 8.258286144107276e-05, "loss": 0.0007, "step": 104 }, { "epoch": 0.7, "grad_norm": 0.018316965215360838, "learning_rate": 8.213938048432697e-05, "loss": 0.0041, "step": 105 }, { "epoch": 0.7066666666666667, "grad_norm": 0.04940334444711568, "learning_rate": 8.169154836993551e-05, "loss": 0.0089, "step": 106 }, { "epoch": 0.7133333333333334, "grad_norm": 0.1333890081658084, "learning_rate": 8.1239425727198e-05, "loss": 0.0353, "step": 107 }, { "epoch": 0.72, "grad_norm": 0.005394716437091672, "learning_rate": 8.07830737662829e-05, "loss": 0.0009, "step": 108 }, { "epoch": 0.7266666666666667, "grad_norm": 0.012561835182953009, "learning_rate": 8.032255426994069e-05, "loss": 0.0016, "step": 109 }, { "epoch": 0.7333333333333333, "grad_norm": 0.04804809966916439, "learning_rate": 7.985792958513931e-05, "loss": 0.0089, "step": 110 }, { "epoch": 0.74, "grad_norm": 0.1561011742243027, "learning_rate": 7.938926261462366e-05, "loss": 0.0537, "step": 111 }, { "epoch": 0.7466666666666667, "grad_norm": 0.012102538310463658, "learning_rate": 7.891661680839932e-05, "loss": 0.0012, "step": 112 }, { "epoch": 0.7533333333333333, "grad_norm": 0.002794216372923245, "learning_rate": 7.844005615514259e-05, "loss": 0.0004, "step": 113 }, { "epoch": 0.76, "grad_norm": 0.032421479616987374, "learning_rate": 7.795964517353735e-05, "loss": 0.005, "step": 114 }, { "epoch": 0.7666666666666667, "grad_norm": 0.1016952851577304, "learning_rate": 7.74754489035403e-05, "loss": 0.0307, "step": 115 }, { "epoch": 0.7733333333333333, "grad_norm": 0.01649866985351664, "learning_rate": 7.698753289757565e-05, "loss": 0.0019, "step": 116 }, { "epoch": 0.78, "grad_norm": 0.0022136880069391885, "learning_rate": 7.649596321166024e-05, "loss": 0.0003, "step": 117 }, { "epoch": 0.7866666666666666, "grad_norm": 0.038591413273652356, "learning_rate": 7.600080639646077e-05, "loss": 0.0024, "step": 118 }, { "epoch": 0.7933333333333333, "grad_norm": 0.07832977869558842, "learning_rate": 7.550212948828377e-05, "loss": 0.0089, "step": 119 }, { "epoch": 0.8, "grad_norm": 0.0006592927519746862, "learning_rate": 7.500000000000001e-05, "loss": 0.0001, "step": 120 }, { "epoch": 0.8066666666666666, "grad_norm": 0.05319562087951372, "learning_rate": 7.449448591190435e-05, "loss": 0.0158, "step": 121 }, { "epoch": 0.8133333333333334, "grad_norm": 0.024280323885077393, "learning_rate": 7.398565566251232e-05, "loss": 0.0016, "step": 122 }, { "epoch": 0.82, "grad_norm": 0.05851627713220399, "learning_rate": 7.347357813929454e-05, "loss": 0.0197, "step": 123 }, { "epoch": 0.8266666666666667, "grad_norm": 0.019970258889744436, "learning_rate": 7.295832266935059e-05, "loss": 0.0016, "step": 124 }, { "epoch": 0.8333333333333334, "grad_norm": 0.04762387132396897, "learning_rate": 7.243995901002312e-05, "loss": 0.0064, "step": 125 }, { "epoch": 0.84, "grad_norm": 0.03856369344865357, "learning_rate": 7.191855733945387e-05, "loss": 0.0071, "step": 126 }, { "epoch": 0.8466666666666667, "grad_norm": 0.0021344270941251, "learning_rate": 7.139418824708272e-05, "loss": 0.0002, "step": 127 }, { "epoch": 0.8533333333333334, "grad_norm": 0.009742411932032784, "learning_rate": 7.08669227240909e-05, "loss": 0.0012, "step": 128 }, { "epoch": 0.86, "grad_norm": 0.0020152655049136816, "learning_rate": 7.033683215379002e-05, "loss": 0.0002, "step": 129 }, { "epoch": 0.8666666666666667, "grad_norm": 0.06704717188148394, "learning_rate": 6.980398830195785e-05, "loss": 0.0098, "step": 130 }, { "epoch": 0.8733333333333333, "grad_norm": 0.028117343247367105, "learning_rate": 6.926846330712242e-05, "loss": 0.0032, "step": 131 }, { "epoch": 0.88, "grad_norm": 0.004535098708097967, "learning_rate": 6.873032967079561e-05, "loss": 0.0003, "step": 132 }, { "epoch": 0.8866666666666667, "grad_norm": 0.028741260754082915, "learning_rate": 6.818966024765758e-05, "loss": 0.0018, "step": 133 }, { "epoch": 0.8933333333333333, "grad_norm": 0.004056970090384499, "learning_rate": 6.764652823569344e-05, "loss": 0.0003, "step": 134 }, { "epoch": 0.9, "grad_norm": 0.42960595424216186, "learning_rate": 6.710100716628344e-05, "loss": 0.0311, "step": 135 }, { "epoch": 0.9066666666666666, "grad_norm": 0.01645823001956124, "learning_rate": 6.65531708942479e-05, "loss": 0.0014, "step": 136 }, { "epoch": 0.9133333333333333, "grad_norm": 0.000662579815964547, "learning_rate": 6.600309358784857e-05, "loss": 0.0001, "step": 137 }, { "epoch": 0.92, "grad_norm": 0.004068185857684531, "learning_rate": 6.545084971874738e-05, "loss": 0.0004, "step": 138 }, { "epoch": 0.9266666666666666, "grad_norm": 0.01409935510628758, "learning_rate": 6.48965140519241e-05, "loss": 0.0018, "step": 139 }, { "epoch": 0.9333333333333333, "grad_norm": 0.006795242660458633, "learning_rate": 6.434016163555452e-05, "loss": 0.0005, "step": 140 }, { "epoch": 0.94, "grad_norm": 0.07501779724421707, "learning_rate": 6.378186779084995e-05, "loss": 0.0016, "step": 141 }, { "epoch": 0.9466666666666667, "grad_norm": 0.012747067413767603, "learning_rate": 6.322170810186012e-05, "loss": 0.0018, "step": 142 }, { "epoch": 0.9533333333333334, "grad_norm": 0.0035935197001986437, "learning_rate": 6.26597584052401e-05, "loss": 0.0004, "step": 143 }, { "epoch": 0.96, "grad_norm": 0.0019197617637782547, "learning_rate": 6.209609477998338e-05, "loss": 0.0003, "step": 144 }, { "epoch": 0.9666666666666667, "grad_norm": 0.06800443732422268, "learning_rate": 6.153079353712201e-05, "loss": 0.0055, "step": 145 }, { "epoch": 0.9733333333333334, "grad_norm": 0.0046985874461853445, "learning_rate": 6.096393120939516e-05, "loss": 0.0008, "step": 146 }, { "epoch": 0.98, "grad_norm": 0.01793719182228139, "learning_rate": 6.0395584540887963e-05, "loss": 0.0008, "step": 147 }, { "epoch": 0.9866666666666667, "grad_norm": 0.11039426142239986, "learning_rate": 5.982583047664151e-05, "loss": 0.0071, "step": 148 }, { "epoch": 0.9933333333333333, "grad_norm": 0.3886935539896285, "learning_rate": 5.925474615223573e-05, "loss": 0.0378, "step": 149 }, { "epoch": 1.0, "grad_norm": 0.002994958619524611, "learning_rate": 5.868240888334653e-05, "loss": 0.0002, "step": 150 }, { "epoch": 1.0, "eval_loss": 0.0803646594285965, "eval_runtime": 0.396, "eval_samples_per_second": 2.525, "eval_steps_per_second": 2.525, "step": 150 }, { "epoch": 1.0066666666666666, "grad_norm": 0.0021003231068275246, "learning_rate": 5.810889615527838e-05, "loss": 0.0002, "step": 151 }, { "epoch": 1.0133333333333334, "grad_norm": 0.0036389796441329914, "learning_rate": 5.753428561247416e-05, "loss": 0.0006, "step": 152 }, { "epoch": 1.02, "grad_norm": 0.0018236871941790659, "learning_rate": 5.695865504800327e-05, "loss": 0.0002, "step": 153 }, { "epoch": 1.0266666666666666, "grad_norm": 0.03604294681780842, "learning_rate": 5.6382082393029746e-05, "loss": 0.0021, "step": 154 }, { "epoch": 1.0333333333333334, "grad_norm": 0.0003326855784465355, "learning_rate": 5.5804645706261514e-05, "loss": 0.0001, "step": 155 }, { "epoch": 1.04, "grad_norm": 0.0005330056071824709, "learning_rate": 5.522642316338268e-05, "loss": 0.0001, "step": 156 }, { "epoch": 1.0466666666666666, "grad_norm": 0.0025830502935655945, "learning_rate": 5.464749304646962e-05, "loss": 0.0002, "step": 157 }, { "epoch": 1.0533333333333332, "grad_norm": 0.0021882173941981434, "learning_rate": 5.4067933733392915e-05, "loss": 0.0002, "step": 158 }, { "epoch": 1.06, "grad_norm": 0.01876877301647109, "learning_rate": 5.348782368720626e-05, "loss": 0.0011, "step": 159 }, { "epoch": 1.0666666666666667, "grad_norm": 0.004152311476737238, "learning_rate": 5.290724144552379e-05, "loss": 0.0003, "step": 160 }, { "epoch": 1.0733333333333333, "grad_norm": 0.03435453317398305, "learning_rate": 5.232626560988735e-05, "loss": 0.0018, "step": 161 }, { "epoch": 1.08, "grad_norm": 0.0007867937366748956, "learning_rate": 5.174497483512506e-05, "loss": 0.0001, "step": 162 }, { "epoch": 1.0866666666666667, "grad_norm": 0.00022456592442438752, "learning_rate": 5.116344781870281e-05, "loss": 0.0, "step": 163 }, { "epoch": 1.0933333333333333, "grad_norm": 0.020849316626417487, "learning_rate": 5.0581763290069865e-05, "loss": 0.0018, "step": 164 }, { "epoch": 1.1, "grad_norm": 0.012084541845530997, "learning_rate": 5e-05, "loss": 0.0015, "step": 165 }, { "epoch": 1.1066666666666667, "grad_norm": 0.004675758318035562, "learning_rate": 4.941823670993016e-05, "loss": 0.0006, "step": 166 }, { "epoch": 1.1133333333333333, "grad_norm": 0.013640804564847142, "learning_rate": 4.883655218129719e-05, "loss": 0.0013, "step": 167 }, { "epoch": 1.12, "grad_norm": 0.0007115749121638179, "learning_rate": 4.825502516487497e-05, "loss": 0.0001, "step": 168 }, { "epoch": 1.1266666666666667, "grad_norm": 0.0010752202756075405, "learning_rate": 4.767373439011267e-05, "loss": 0.0002, "step": 169 }, { "epoch": 1.1333333333333333, "grad_norm": 0.0004714533988846832, "learning_rate": 4.709275855447621e-05, "loss": 0.0, "step": 170 }, { "epoch": 1.1400000000000001, "grad_norm": 0.0009692571052439014, "learning_rate": 4.6512176312793736e-05, "loss": 0.0001, "step": 171 }, { "epoch": 1.1466666666666667, "grad_norm": 0.0007692381679665932, "learning_rate": 4.593206626660709e-05, "loss": 0.0001, "step": 172 }, { "epoch": 1.1533333333333333, "grad_norm": 0.00908307991740823, "learning_rate": 4.535250695353039e-05, "loss": 0.0014, "step": 173 }, { "epoch": 1.16, "grad_norm": 0.00583463919201736, "learning_rate": 4.477357683661734e-05, "loss": 0.0008, "step": 174 }, { "epoch": 1.1666666666666667, "grad_norm": 0.0006835420933832817, "learning_rate": 4.4195354293738484e-05, "loss": 0.0001, "step": 175 }, { "epoch": 1.1733333333333333, "grad_norm": 0.33906700182296606, "learning_rate": 4.361791760697027e-05, "loss": 0.0394, "step": 176 }, { "epoch": 1.18, "grad_norm": 0.012309098336420092, "learning_rate": 4.3041344951996746e-05, "loss": 0.0015, "step": 177 }, { "epoch": 1.1866666666666668, "grad_norm": 0.00271192252073867, "learning_rate": 4.246571438752585e-05, "loss": 0.0004, "step": 178 }, { "epoch": 1.1933333333333334, "grad_norm": 0.0007405564837396, "learning_rate": 4.1891103844721636e-05, "loss": 0.0001, "step": 179 }, { "epoch": 1.2, "grad_norm": 0.006130127066426149, "learning_rate": 4.131759111665349e-05, "loss": 0.0008, "step": 180 }, { "epoch": 1.2066666666666666, "grad_norm": 0.0024762820952494435, "learning_rate": 4.074525384776428e-05, "loss": 0.0002, "step": 181 }, { "epoch": 1.2133333333333334, "grad_norm": 0.001856612345136196, "learning_rate": 4.017416952335849e-05, "loss": 0.0003, "step": 182 }, { "epoch": 1.22, "grad_norm": 0.002933104620437452, "learning_rate": 3.960441545911204e-05, "loss": 0.0005, "step": 183 }, { "epoch": 1.2266666666666666, "grad_norm": 0.00021178563511811804, "learning_rate": 3.903606879060483e-05, "loss": 0.0, "step": 184 }, { "epoch": 1.2333333333333334, "grad_norm": 0.021468224866796476, "learning_rate": 3.846920646287799e-05, "loss": 0.0017, "step": 185 }, { "epoch": 1.24, "grad_norm": 0.0002191641027812202, "learning_rate": 3.790390522001662e-05, "loss": 0.0, "step": 186 }, { "epoch": 1.2466666666666666, "grad_norm": 0.19963133162283628, "learning_rate": 3.7340241594759916e-05, "loss": 0.0215, "step": 187 }, { "epoch": 1.2533333333333334, "grad_norm": 0.001698741550481693, "learning_rate": 3.67782918981399e-05, "loss": 0.0001, "step": 188 }, { "epoch": 1.26, "grad_norm": 0.00250874602486916, "learning_rate": 3.6218132209150045e-05, "loss": 0.0004, "step": 189 }, { "epoch": 1.2666666666666666, "grad_norm": 0.0012301135294118123, "learning_rate": 3.5659838364445505e-05, "loss": 0.0001, "step": 190 }, { "epoch": 1.2733333333333334, "grad_norm": 0.0001371083016238264, "learning_rate": 3.51034859480759e-05, "loss": 0.0, "step": 191 }, { "epoch": 1.28, "grad_norm": 0.002123630530765524, "learning_rate": 3.4549150281252636e-05, "loss": 0.0004, "step": 192 }, { "epoch": 1.2866666666666666, "grad_norm": 0.0009698056655239369, "learning_rate": 3.399690641215142e-05, "loss": 0.0002, "step": 193 }, { "epoch": 1.2933333333333334, "grad_norm": 0.025352146817282144, "learning_rate": 3.34468291057521e-05, "loss": 0.0021, "step": 194 }, { "epoch": 1.3, "grad_norm": 0.0005495859273167982, "learning_rate": 3.289899283371657e-05, "loss": 0.0, "step": 195 }, { "epoch": 1.3066666666666666, "grad_norm": 0.0017234614383047789, "learning_rate": 3.235347176430656e-05, "loss": 0.0002, "step": 196 }, { "epoch": 1.3133333333333335, "grad_norm": 0.0010010621739735413, "learning_rate": 3.1810339752342446e-05, "loss": 0.0002, "step": 197 }, { "epoch": 1.32, "grad_norm": 0.000524296452950596, "learning_rate": 3.12696703292044e-05, "loss": 0.0001, "step": 198 }, { "epoch": 1.3266666666666667, "grad_norm": 0.011499756006267644, "learning_rate": 3.073153669287759e-05, "loss": 0.001, "step": 199 }, { "epoch": 1.3333333333333333, "grad_norm": 0.0007682007896570117, "learning_rate": 3.019601169804216e-05, "loss": 0.0001, "step": 200 }, { "epoch": 1.34, "grad_norm": 0.001254195140368958, "learning_rate": 2.9663167846209998e-05, "loss": 0.0001, "step": 201 }, { "epoch": 1.3466666666666667, "grad_norm": 0.008013943807761402, "learning_rate": 2.9133077275909108e-05, "loss": 0.0009, "step": 202 }, { "epoch": 1.3533333333333333, "grad_norm": 0.001089293145419478, "learning_rate": 2.86058117529173e-05, "loss": 0.0001, "step": 203 }, { "epoch": 1.3599999999999999, "grad_norm": 9.117295111547463e-05, "learning_rate": 2.8081442660546125e-05, "loss": 0.0, "step": 204 }, { "epoch": 1.3666666666666667, "grad_norm": 0.0033149010167231522, "learning_rate": 2.7560040989976892e-05, "loss": 0.0003, "step": 205 }, { "epoch": 1.3733333333333333, "grad_norm": 0.002007934723064643, "learning_rate": 2.7041677330649407e-05, "loss": 0.0002, "step": 206 }, { "epoch": 1.38, "grad_norm": 0.000708731685994793, "learning_rate": 2.6526421860705473e-05, "loss": 0.0001, "step": 207 }, { "epoch": 1.3866666666666667, "grad_norm": 0.0012849212888422254, "learning_rate": 2.6014344337487707e-05, "loss": 0.0002, "step": 208 }, { "epoch": 1.3933333333333333, "grad_norm": 0.001410634637177784, "learning_rate": 2.5505514088095655e-05, "loss": 0.0002, "step": 209 }, { "epoch": 1.4, "grad_norm": 0.0028452226194289588, "learning_rate": 2.500000000000001e-05, "loss": 0.0004, "step": 210 }, { "epoch": 1.4066666666666667, "grad_norm": 0.011785064917511209, "learning_rate": 2.4497870511716235e-05, "loss": 0.0015, "step": 211 }, { "epoch": 1.4133333333333333, "grad_norm": 0.00128947199636307, "learning_rate": 2.399919360353923e-05, "loss": 0.0001, "step": 212 }, { "epoch": 1.42, "grad_norm": 0.0026509474809608734, "learning_rate": 2.350403678833976e-05, "loss": 0.0003, "step": 213 }, { "epoch": 1.4266666666666667, "grad_norm": 0.021038697839907274, "learning_rate": 2.3012467102424373e-05, "loss": 0.0011, "step": 214 }, { "epoch": 1.4333333333333333, "grad_norm": 0.009705244276540159, "learning_rate": 2.25245510964597e-05, "loss": 0.0009, "step": 215 }, { "epoch": 1.44, "grad_norm": 0.0001271792663634337, "learning_rate": 2.2040354826462668e-05, "loss": 0.0, "step": 216 }, { "epoch": 1.4466666666666668, "grad_norm": 0.003606178645193546, "learning_rate": 2.1559943844857422e-05, "loss": 0.0005, "step": 217 }, { "epoch": 1.4533333333333334, "grad_norm": 0.003247408310691337, "learning_rate": 2.1083383191600674e-05, "loss": 0.0002, "step": 218 }, { "epoch": 1.46, "grad_norm": 0.05227638592773328, "learning_rate": 2.061073738537635e-05, "loss": 0.0072, "step": 219 }, { "epoch": 1.4666666666666668, "grad_norm": 0.00029558329468361424, "learning_rate": 2.0142070414860704e-05, "loss": 0.0, "step": 220 }, { "epoch": 1.4733333333333334, "grad_norm": 0.0011287793067012296, "learning_rate": 1.9677445730059346e-05, "loss": 0.0002, "step": 221 }, { "epoch": 1.48, "grad_norm": 0.0005638060460548986, "learning_rate": 1.9216926233717085e-05, "loss": 0.0001, "step": 222 }, { "epoch": 1.4866666666666668, "grad_norm": 0.00023495034133297525, "learning_rate": 1.8760574272802e-05, "loss": 0.0, "step": 223 }, { "epoch": 1.4933333333333334, "grad_norm": 0.002056131730309097, "learning_rate": 1.8308451630064484e-05, "loss": 0.0001, "step": 224 }, { "epoch": 1.5, "grad_norm": 0.0020817636928389736, "learning_rate": 1.7860619515673033e-05, "loss": 0.0002, "step": 225 }, { "epoch": 1.5066666666666668, "grad_norm": 0.0005676630879362085, "learning_rate": 1.7417138558927244e-05, "loss": 0.0001, "step": 226 }, { "epoch": 1.5133333333333332, "grad_norm": 0.0009691419073225976, "learning_rate": 1.6978068800049624e-05, "loss": 0.0001, "step": 227 }, { "epoch": 1.52, "grad_norm": 0.0002874361329178817, "learning_rate": 1.6543469682057106e-05, "loss": 0.0, "step": 228 }, { "epoch": 1.5266666666666666, "grad_norm": 0.006428970027258559, "learning_rate": 1.611340004271339e-05, "loss": 0.0008, "step": 229 }, { "epoch": 1.5333333333333332, "grad_norm": 0.0001800100024378527, "learning_rate": 1.5687918106563326e-05, "loss": 0.0, "step": 230 }, { "epoch": 1.54, "grad_norm": 0.00014140953092577622, "learning_rate": 1.526708147705013e-05, "loss": 0.0, "step": 231 }, { "epoch": 1.5466666666666666, "grad_norm": 0.0018717069050629585, "learning_rate": 1.4850947128716913e-05, "loss": 0.0001, "step": 232 }, { "epoch": 1.5533333333333332, "grad_norm": 0.0004295617626419071, "learning_rate": 1.4439571399493146e-05, "loss": 0.0001, "step": 233 }, { "epoch": 1.56, "grad_norm": 0.0019430088580982595, "learning_rate": 1.4033009983067452e-05, "loss": 0.0003, "step": 234 }, { "epoch": 1.5666666666666667, "grad_norm": 0.006480592433687467, "learning_rate": 1.3631317921347563e-05, "loss": 0.0008, "step": 235 }, { "epoch": 1.5733333333333333, "grad_norm": 0.00014788754166454582, "learning_rate": 1.3234549597008571e-05, "loss": 0.0, "step": 236 }, { "epoch": 1.58, "grad_norm": 0.0031021623338748057, "learning_rate": 1.2842758726130283e-05, "loss": 0.0002, "step": 237 }, { "epoch": 1.5866666666666667, "grad_norm": 0.002561519338071853, "learning_rate": 1.245599835092504e-05, "loss": 0.0002, "step": 238 }, { "epoch": 1.5933333333333333, "grad_norm": 0.0007566978274497242, "learning_rate": 1.2074320832556556e-05, "loss": 0.0001, "step": 239 }, { "epoch": 1.6, "grad_norm": 0.003877422123718332, "learning_rate": 1.1697777844051105e-05, "loss": 0.0003, "step": 240 }, { "epoch": 1.6066666666666667, "grad_norm": 0.00018385834867615716, "learning_rate": 1.132642036330181e-05, "loss": 0.0, "step": 241 }, { "epoch": 1.6133333333333333, "grad_norm": 0.0005006729172897761, "learning_rate": 1.096029866616704e-05, "loss": 0.0001, "step": 242 }, { "epoch": 1.62, "grad_norm": 0.0016393122091148608, "learning_rate": 1.0599462319663905e-05, "loss": 0.0003, "step": 243 }, { "epoch": 1.6266666666666667, "grad_norm": 0.0005625554623684653, "learning_rate": 1.0243960175257606e-05, "loss": 0.0001, "step": 244 }, { "epoch": 1.6333333333333333, "grad_norm": 0.011284933931968335, "learning_rate": 9.893840362247809e-06, "loss": 0.001, "step": 245 }, { "epoch": 1.6400000000000001, "grad_norm": 0.0014251176606952397, "learning_rate": 9.549150281252633e-06, "loss": 0.0001, "step": 246 }, { "epoch": 1.6466666666666665, "grad_norm": 0.0034863186197778813, "learning_rate": 9.209936597791407e-06, "loss": 0.0002, "step": 247 }, { "epoch": 1.6533333333333333, "grad_norm": 0.007395658679928698, "learning_rate": 8.876245235966885e-06, "loss": 0.0007, "step": 248 }, { "epoch": 1.6600000000000001, "grad_norm": 0.003364471703618897, "learning_rate": 8.548121372247918e-06, "loss": 0.0004, "step": 249 }, { "epoch": 1.6666666666666665, "grad_norm": 0.00016417283668586266, "learning_rate": 8.225609429353187e-06, "loss": 0.0, "step": 250 }, { "epoch": 1.6733333333333333, "grad_norm": 0.004126185077848332, "learning_rate": 7.908753070237123e-06, "loss": 0.0006, "step": 251 }, { "epoch": 1.6800000000000002, "grad_norm": 0.007786911363460405, "learning_rate": 7.597595192178702e-06, "loss": 0.0008, "step": 252 }, { "epoch": 1.6866666666666665, "grad_norm": 0.0013442868476818606, "learning_rate": 7.292177920973725e-06, "loss": 0.0001, "step": 253 }, { "epoch": 1.6933333333333334, "grad_norm": 2.8446129437479044e-05, "learning_rate": 6.992542605231739e-06, "loss": 0.0, "step": 254 }, { "epoch": 1.7, "grad_norm": 0.003457678524708678, "learning_rate": 6.698729810778065e-06, "loss": 0.0004, "step": 255 }, { "epoch": 1.7066666666666666, "grad_norm": 0.0020679536341822674, "learning_rate": 6.410779315161886e-06, "loss": 0.0002, "step": 256 }, { "epoch": 1.7133333333333334, "grad_norm": 0.0011107101049536243, "learning_rate": 6.128730102270897e-06, "loss": 0.0001, "step": 257 }, { "epoch": 1.72, "grad_norm": 0.008817562279004963, "learning_rate": 5.852620357053651e-06, "loss": 0.0007, "step": 258 }, { "epoch": 1.7266666666666666, "grad_norm": 0.001885928371731335, "learning_rate": 5.582487460349805e-06, "loss": 0.0002, "step": 259 }, { "epoch": 1.7333333333333334, "grad_norm": 0.002392016017705433, "learning_rate": 5.318367983829392e-06, "loss": 0.0003, "step": 260 }, { "epoch": 1.74, "grad_norm": 0.006800595193800078, "learning_rate": 5.060297685041659e-06, "loss": 0.0008, "step": 261 }, { "epoch": 1.7466666666666666, "grad_norm": 0.0005153284985888732, "learning_rate": 4.8083115025739756e-06, "loss": 0.0001, "step": 262 }, { "epoch": 1.7533333333333334, "grad_norm": 0.0005379817123213892, "learning_rate": 4.562443551321788e-06, "loss": 0.0001, "step": 263 }, { "epoch": 1.76, "grad_norm": 0.010710899108531225, "learning_rate": 4.322727117869951e-06, "loss": 0.0012, "step": 264 }, { "epoch": 1.7666666666666666, "grad_norm": 0.0029708325384327204, "learning_rate": 4.089194655986306e-06, "loss": 0.0005, "step": 265 }, { "epoch": 1.7733333333333334, "grad_norm": 0.0011712320042278057, "learning_rate": 3.861877782227885e-06, "loss": 0.0002, "step": 266 }, { "epoch": 1.78, "grad_norm": 0.006310422930553905, "learning_rate": 3.6408072716606346e-06, "loss": 0.0003, "step": 267 }, { "epoch": 1.7866666666666666, "grad_norm": 0.00042374745784550053, "learning_rate": 3.426013053692878e-06, "loss": 0.0001, "step": 268 }, { "epoch": 1.7933333333333334, "grad_norm": 0.015075237018141776, "learning_rate": 3.2175242080234313e-06, "loss": 0.0011, "step": 269 }, { "epoch": 1.8, "grad_norm": 0.005069164741809, "learning_rate": 3.0153689607045845e-06, "loss": 0.0005, "step": 270 }, { "epoch": 1.8066666666666666, "grad_norm": 0.0016354796817637644, "learning_rate": 2.8195746803208244e-06, "loss": 0.0002, "step": 271 }, { "epoch": 1.8133333333333335, "grad_norm": 0.011914256060124044, "learning_rate": 2.63016787428354e-06, "loss": 0.001, "step": 272 }, { "epoch": 1.8199999999999998, "grad_norm": 0.0007886861073391749, "learning_rate": 2.4471741852423237e-06, "loss": 0.0001, "step": 273 }, { "epoch": 1.8266666666666667, "grad_norm": 0.0008704322939951085, "learning_rate": 2.2706183876134045e-06, "loss": 0.0001, "step": 274 }, { "epoch": 1.8333333333333335, "grad_norm": 0.0013924524488294762, "learning_rate": 2.100524384225555e-06, "loss": 0.0001, "step": 275 }, { "epoch": 1.8399999999999999, "grad_norm": 0.002473720849147904, "learning_rate": 1.9369152030840556e-06, "loss": 0.0003, "step": 276 }, { "epoch": 1.8466666666666667, "grad_norm": 0.0010803163063751026, "learning_rate": 1.7798129942530551e-06, "loss": 0.0001, "step": 277 }, { "epoch": 1.8533333333333335, "grad_norm": 0.0008722310307593838, "learning_rate": 1.6292390268568104e-06, "loss": 0.0001, "step": 278 }, { "epoch": 1.8599999999999999, "grad_norm": 0.001997384902936225, "learning_rate": 1.4852136862001764e-06, "loss": 0.0003, "step": 279 }, { "epoch": 1.8666666666666667, "grad_norm": 0.00021218518174281656, "learning_rate": 1.3477564710088098e-06, "loss": 0.0, "step": 280 }, { "epoch": 1.8733333333333333, "grad_norm": 0.001904685046173703, "learning_rate": 1.2168859907892904e-06, "loss": 0.0003, "step": 281 }, { "epoch": 1.88, "grad_norm": 0.00161560616649923, "learning_rate": 1.0926199633097157e-06, "loss": 0.0002, "step": 282 }, { "epoch": 1.8866666666666667, "grad_norm": 0.0005011911147729697, "learning_rate": 9.749752122010346e-07, "loss": 0.0001, "step": 283 }, { "epoch": 1.8933333333333333, "grad_norm": 0.007116616826281459, "learning_rate": 8.639676646793382e-07, "loss": 0.0007, "step": 284 }, { "epoch": 1.9, "grad_norm": 0.0005402418895565235, "learning_rate": 7.596123493895991e-07, "loss": 0.0, "step": 285 }, { "epoch": 1.9066666666666667, "grad_norm": 0.0013262494880061457, "learning_rate": 6.61923394371039e-07, "loss": 0.0002, "step": 286 }, { "epoch": 1.9133333333333333, "grad_norm": 0.0016350924262900483, "learning_rate": 5.7091402514442e-07, "loss": 0.0002, "step": 287 }, { "epoch": 1.92, "grad_norm": 0.0010000431995775326, "learning_rate": 4.865965629214819e-07, "loss": 0.0001, "step": 288 }, { "epoch": 1.9266666666666667, "grad_norm": 0.0008099983441951289, "learning_rate": 4.089824229369155e-07, "loss": 0.0001, "step": 289 }, { "epoch": 1.9333333333333333, "grad_norm": 0.002344852830150327, "learning_rate": 3.380821129028489e-07, "loss": 0.0003, "step": 290 }, { "epoch": 1.94, "grad_norm": 0.0010346670623807548, "learning_rate": 2.7390523158633554e-07, "loss": 0.0002, "step": 291 }, { "epoch": 1.9466666666666668, "grad_norm": 0.0007626180237544103, "learning_rate": 2.1646046750978254e-07, "loss": 0.0001, "step": 292 }, { "epoch": 1.9533333333333334, "grad_norm": 0.0003092423338041002, "learning_rate": 1.657555977746972e-07, "loss": 0.0, "step": 293 }, { "epoch": 1.96, "grad_norm": 0.02712591052242407, "learning_rate": 1.2179748700879012e-07, "loss": 0.0013, "step": 294 }, { "epoch": 1.9666666666666668, "grad_norm": 0.00030510198965566656, "learning_rate": 8.459208643659122e-08, "loss": 0.0, "step": 295 }, { "epoch": 1.9733333333333334, "grad_norm": 0.005209896628620532, "learning_rate": 5.4144433073771707e-08, "loss": 0.0004, "step": 296 }, { "epoch": 1.98, "grad_norm": 0.0017509028676064387, "learning_rate": 3.04586490452119e-08, "loss": 0.0002, "step": 297 }, { "epoch": 1.9866666666666668, "grad_norm": 0.0057565330315497865, "learning_rate": 1.3537941026914303e-08, "loss": 0.0003, "step": 298 }, { "epoch": 1.9933333333333332, "grad_norm": 0.003094283944748621, "learning_rate": 3.384599811889766e-09, "loss": 0.0004, "step": 299 }, { "epoch": 2.0, "grad_norm": 0.001064714820258672, "learning_rate": 0.0, "loss": 0.0001, "step": 300 }, { "epoch": 2.0, "eval_loss": 0.1300777941942215, "eval_runtime": 1.4849, "eval_samples_per_second": 0.673, "eval_steps_per_second": 0.673, "step": 300 }, { "epoch": 2.0, "step": 300, "total_flos": 4515982934016.0, "train_loss": 0.024928187334571705, "train_runtime": 773.7864, "train_samples_per_second": 0.775, "train_steps_per_second": 0.388 } ], "logging_steps": 1, "max_steps": 300, "num_input_tokens_seen": 0, "num_train_epochs": 2, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 4515982934016.0, "train_batch_size": 1, "trial_name": null, "trial_params": null }