{ "best_metric": null, "best_model_checkpoint": null, "epoch": 1.0573333333333332, "eval_steps": 500, "global_step": 2000, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0003333333333333333, "grad_norm": 3.953395366668701, "learning_rate": 1.6666666666666668e-07, "loss": 0.9747, "step": 1 }, { "epoch": 0.0006666666666666666, "grad_norm": 3.7105355262756348, "learning_rate": 3.3333333333333335e-07, "loss": 0.8304, "step": 2 }, { "epoch": 0.001, "grad_norm": 6.670517444610596, "learning_rate": 5.000000000000001e-07, "loss": 0.9317, "step": 3 }, { "epoch": 0.0013333333333333333, "grad_norm": 4.584139347076416, "learning_rate": 6.666666666666667e-07, "loss": 0.9126, "step": 4 }, { "epoch": 0.0016666666666666668, "grad_norm": 3.9163777828216553, "learning_rate": 8.333333333333333e-07, "loss": 0.8644, "step": 5 }, { "epoch": 0.002, "grad_norm": 3.7514755725860596, "learning_rate": 1.0000000000000002e-06, "loss": 0.8892, "step": 6 }, { "epoch": 0.0023333333333333335, "grad_norm": 3.733147621154785, "learning_rate": 1.1666666666666668e-06, "loss": 0.8965, "step": 7 }, { "epoch": 0.0026666666666666666, "grad_norm": 3.3413407802581787, "learning_rate": 1.3333333333333334e-06, "loss": 0.7998, "step": 8 }, { "epoch": 0.003, "grad_norm": 2.669220447540283, "learning_rate": 1.5e-06, "loss": 0.7651, "step": 9 }, { "epoch": 0.0033333333333333335, "grad_norm": 2.563971757888794, "learning_rate": 1.6666666666666667e-06, "loss": 0.7428, "step": 10 }, { "epoch": 0.0036666666666666666, "grad_norm": 3.6352648735046387, "learning_rate": 1.8333333333333335e-06, "loss": 0.7849, "step": 11 }, { "epoch": 0.004, "grad_norm": 2.3276443481445312, "learning_rate": 2.0000000000000003e-06, "loss": 0.6952, "step": 12 }, { "epoch": 0.004333333333333333, "grad_norm": 2.1801578998565674, "learning_rate": 2.166666666666667e-06, "loss": 0.73, "step": 13 }, { "epoch": 0.004666666666666667, "grad_norm": 2.4430813789367676, "learning_rate": 2.3333333333333336e-06, "loss": 0.7127, "step": 14 }, { "epoch": 0.005, "grad_norm": 2.101902961730957, "learning_rate": 2.5e-06, "loss": 0.7021, "step": 15 }, { "epoch": 0.005333333333333333, "grad_norm": 1.8234139680862427, "learning_rate": 2.666666666666667e-06, "loss": 0.6086, "step": 16 }, { "epoch": 0.005666666666666667, "grad_norm": 1.7481471300125122, "learning_rate": 2.8333333333333335e-06, "loss": 0.565, "step": 17 }, { "epoch": 0.006, "grad_norm": 1.9656072854995728, "learning_rate": 3e-06, "loss": 0.6514, "step": 18 }, { "epoch": 0.006333333333333333, "grad_norm": 2.0986952781677246, "learning_rate": 3.166666666666667e-06, "loss": 0.6746, "step": 19 }, { "epoch": 0.006666666666666667, "grad_norm": 2.565603017807007, "learning_rate": 3.3333333333333333e-06, "loss": 0.6086, "step": 20 }, { "epoch": 0.007, "grad_norm": 1.5754969120025635, "learning_rate": 3.5000000000000004e-06, "loss": 0.4919, "step": 21 }, { "epoch": 0.007333333333333333, "grad_norm": 1.8095873594284058, "learning_rate": 3.666666666666667e-06, "loss": 0.5612, "step": 22 }, { "epoch": 0.007666666666666666, "grad_norm": 1.721886396408081, "learning_rate": 3.833333333333334e-06, "loss": 0.5356, "step": 23 }, { "epoch": 0.008, "grad_norm": 2.14868426322937, "learning_rate": 4.000000000000001e-06, "loss": 0.5967, "step": 24 }, { "epoch": 0.008333333333333333, "grad_norm": 1.7181668281555176, "learning_rate": 4.166666666666667e-06, "loss": 0.5642, "step": 25 }, { "epoch": 0.008666666666666666, "grad_norm": 1.891082525253296, "learning_rate": 4.333333333333334e-06, "loss": 0.5229, "step": 26 }, { "epoch": 0.009, "grad_norm": 1.5455230474472046, "learning_rate": 4.5e-06, "loss": 0.5411, "step": 27 }, { "epoch": 0.009333333333333334, "grad_norm": 3.7377946376800537, "learning_rate": 4.666666666666667e-06, "loss": 0.5927, "step": 28 }, { "epoch": 0.009666666666666667, "grad_norm": 2.113539218902588, "learning_rate": 4.833333333333333e-06, "loss": 0.4808, "step": 29 }, { "epoch": 0.01, "grad_norm": 1.7574840784072876, "learning_rate": 5e-06, "loss": 0.5038, "step": 30 }, { "epoch": 0.010333333333333333, "grad_norm": 1.6850998401641846, "learning_rate": 5.166666666666667e-06, "loss": 0.457, "step": 31 }, { "epoch": 0.010666666666666666, "grad_norm": 2.484438180923462, "learning_rate": 5.333333333333334e-06, "loss": 0.4746, "step": 32 }, { "epoch": 0.011, "grad_norm": 1.663460373878479, "learning_rate": 5.500000000000001e-06, "loss": 0.4883, "step": 33 }, { "epoch": 0.011333333333333334, "grad_norm": 1.6798481941223145, "learning_rate": 5.666666666666667e-06, "loss": 0.4467, "step": 34 }, { "epoch": 0.011666666666666667, "grad_norm": 1.7533687353134155, "learning_rate": 5.833333333333334e-06, "loss": 0.4775, "step": 35 }, { "epoch": 0.012, "grad_norm": 1.9110267162322998, "learning_rate": 6e-06, "loss": 0.4316, "step": 36 }, { "epoch": 0.012333333333333333, "grad_norm": 1.731864333152771, "learning_rate": 6.166666666666667e-06, "loss": 0.4988, "step": 37 }, { "epoch": 0.012666666666666666, "grad_norm": 1.82390558719635, "learning_rate": 6.333333333333334e-06, "loss": 0.466, "step": 38 }, { "epoch": 0.013, "grad_norm": 1.8916178941726685, "learning_rate": 6.5000000000000004e-06, "loss": 0.4821, "step": 39 }, { "epoch": 0.013333333333333334, "grad_norm": 1.750315546989441, "learning_rate": 6.666666666666667e-06, "loss": 0.444, "step": 40 }, { "epoch": 0.013666666666666667, "grad_norm": 1.6363168954849243, "learning_rate": 6.833333333333333e-06, "loss": 0.372, "step": 41 }, { "epoch": 0.014, "grad_norm": 1.7785207033157349, "learning_rate": 7.000000000000001e-06, "loss": 0.3779, "step": 42 }, { "epoch": 0.014333333333333333, "grad_norm": 1.7099310159683228, "learning_rate": 7.166666666666667e-06, "loss": 0.4722, "step": 43 }, { "epoch": 0.014666666666666666, "grad_norm": 1.3298712968826294, "learning_rate": 7.333333333333334e-06, "loss": 0.3492, "step": 44 }, { "epoch": 0.015, "grad_norm": 1.817345142364502, "learning_rate": 7.5e-06, "loss": 0.4189, "step": 45 }, { "epoch": 0.015333333333333332, "grad_norm": 1.3972567319869995, "learning_rate": 7.666666666666667e-06, "loss": 0.3355, "step": 46 }, { "epoch": 0.015666666666666666, "grad_norm": 1.35780668258667, "learning_rate": 7.833333333333333e-06, "loss": 0.3737, "step": 47 }, { "epoch": 0.016, "grad_norm": 1.6960091590881348, "learning_rate": 8.000000000000001e-06, "loss": 0.4332, "step": 48 }, { "epoch": 0.01633333333333333, "grad_norm": 1.568686842918396, "learning_rate": 8.166666666666668e-06, "loss": 0.3888, "step": 49 }, { "epoch": 0.016666666666666666, "grad_norm": 1.4132697582244873, "learning_rate": 8.333333333333334e-06, "loss": 0.3322, "step": 50 }, { "epoch": 0.017, "grad_norm": 1.659246802330017, "learning_rate": 8.500000000000002e-06, "loss": 0.4567, "step": 51 }, { "epoch": 0.017333333333333333, "grad_norm": 1.9844367504119873, "learning_rate": 8.666666666666668e-06, "loss": 0.3974, "step": 52 }, { "epoch": 0.017666666666666667, "grad_norm": 1.6027755737304688, "learning_rate": 8.833333333333334e-06, "loss": 0.3917, "step": 53 }, { "epoch": 0.018, "grad_norm": 1.453019618988037, "learning_rate": 9e-06, "loss": 0.3336, "step": 54 }, { "epoch": 0.018333333333333333, "grad_norm": 1.4241881370544434, "learning_rate": 9.166666666666666e-06, "loss": 0.3451, "step": 55 }, { "epoch": 0.018666666666666668, "grad_norm": 1.5545347929000854, "learning_rate": 9.333333333333334e-06, "loss": 0.3593, "step": 56 }, { "epoch": 0.019, "grad_norm": 1.2675824165344238, "learning_rate": 9.5e-06, "loss": 0.3397, "step": 57 }, { "epoch": 0.019333333333333334, "grad_norm": 1.5485769510269165, "learning_rate": 9.666666666666667e-06, "loss": 0.3582, "step": 58 }, { "epoch": 0.019666666666666666, "grad_norm": 1.6267204284667969, "learning_rate": 9.833333333333333e-06, "loss": 0.3371, "step": 59 }, { "epoch": 0.02, "grad_norm": 1.4819341897964478, "learning_rate": 1e-05, "loss": 0.3979, "step": 60 }, { "epoch": 0.02033333333333333, "grad_norm": 1.523547887802124, "learning_rate": 1.0166666666666667e-05, "loss": 0.39, "step": 61 }, { "epoch": 0.020666666666666667, "grad_norm": 1.4726427793502808, "learning_rate": 1.0333333333333333e-05, "loss": 0.356, "step": 62 }, { "epoch": 0.021, "grad_norm": 1.332187533378601, "learning_rate": 1.05e-05, "loss": 0.3099, "step": 63 }, { "epoch": 0.021333333333333333, "grad_norm": 1.4094098806381226, "learning_rate": 1.0666666666666667e-05, "loss": 0.3192, "step": 64 }, { "epoch": 0.021666666666666667, "grad_norm": 1.6353566646575928, "learning_rate": 1.0833333333333334e-05, "loss": 0.3261, "step": 65 }, { "epoch": 0.022, "grad_norm": 1.5030579566955566, "learning_rate": 1.1000000000000001e-05, "loss": 0.3929, "step": 66 }, { "epoch": 0.022333333333333334, "grad_norm": 2.1083621978759766, "learning_rate": 1.1166666666666668e-05, "loss": 0.461, "step": 67 }, { "epoch": 0.02266666666666667, "grad_norm": 1.6705724000930786, "learning_rate": 1.1333333333333334e-05, "loss": 0.3947, "step": 68 }, { "epoch": 0.023, "grad_norm": 1.413004994392395, "learning_rate": 1.1500000000000002e-05, "loss": 0.3224, "step": 69 }, { "epoch": 0.023333333333333334, "grad_norm": 1.6950210332870483, "learning_rate": 1.1666666666666668e-05, "loss": 0.3763, "step": 70 }, { "epoch": 0.023666666666666666, "grad_norm": 1.4866547584533691, "learning_rate": 1.1833333333333334e-05, "loss": 0.3239, "step": 71 }, { "epoch": 0.024, "grad_norm": 1.546217441558838, "learning_rate": 1.2e-05, "loss": 0.3684, "step": 72 }, { "epoch": 0.024333333333333332, "grad_norm": 1.6388611793518066, "learning_rate": 1.2166666666666668e-05, "loss": 0.342, "step": 73 }, { "epoch": 0.024666666666666667, "grad_norm": 1.426133155822754, "learning_rate": 1.2333333333333334e-05, "loss": 0.2835, "step": 74 }, { "epoch": 0.025, "grad_norm": 1.5605098009109497, "learning_rate": 1.25e-05, "loss": 0.3053, "step": 75 }, { "epoch": 0.025333333333333333, "grad_norm": 2.0954012870788574, "learning_rate": 1.2666666666666668e-05, "loss": 0.3634, "step": 76 }, { "epoch": 0.025666666666666667, "grad_norm": 1.7222869396209717, "learning_rate": 1.2833333333333333e-05, "loss": 0.4678, "step": 77 }, { "epoch": 0.026, "grad_norm": 2.151477813720703, "learning_rate": 1.3000000000000001e-05, "loss": 0.3732, "step": 78 }, { "epoch": 0.026333333333333334, "grad_norm": 1.4184696674346924, "learning_rate": 1.3166666666666665e-05, "loss": 0.3863, "step": 79 }, { "epoch": 0.02666666666666667, "grad_norm": 1.5404107570648193, "learning_rate": 1.3333333333333333e-05, "loss": 0.3362, "step": 80 }, { "epoch": 0.027, "grad_norm": 1.4057250022888184, "learning_rate": 1.3500000000000001e-05, "loss": 0.3278, "step": 81 }, { "epoch": 0.027333333333333334, "grad_norm": 1.4827985763549805, "learning_rate": 1.3666666666666666e-05, "loss": 0.3566, "step": 82 }, { "epoch": 0.027666666666666666, "grad_norm": 1.567644476890564, "learning_rate": 1.3833333333333334e-05, "loss": 0.3622, "step": 83 }, { "epoch": 0.028, "grad_norm": 1.6166788339614868, "learning_rate": 1.4000000000000001e-05, "loss": 0.3744, "step": 84 }, { "epoch": 0.028333333333333332, "grad_norm": 1.5404103994369507, "learning_rate": 1.4166666666666668e-05, "loss": 0.3182, "step": 85 }, { "epoch": 0.028666666666666667, "grad_norm": 1.6452393531799316, "learning_rate": 1.4333333333333334e-05, "loss": 0.3414, "step": 86 }, { "epoch": 0.029, "grad_norm": 1.4937787055969238, "learning_rate": 1.45e-05, "loss": 0.3932, "step": 87 }, { "epoch": 0.029333333333333333, "grad_norm": 1.7709240913391113, "learning_rate": 1.4666666666666668e-05, "loss": 0.4493, "step": 88 }, { "epoch": 0.029666666666666668, "grad_norm": 1.826235055923462, "learning_rate": 1.4833333333333336e-05, "loss": 0.4358, "step": 89 }, { "epoch": 0.03, "grad_norm": 1.2349361181259155, "learning_rate": 1.5e-05, "loss": 0.3008, "step": 90 }, { "epoch": 0.030333333333333334, "grad_norm": 1.6294262409210205, "learning_rate": 1.5166666666666668e-05, "loss": 0.3861, "step": 91 }, { "epoch": 0.030666666666666665, "grad_norm": 1.4110265970230103, "learning_rate": 1.5333333333333334e-05, "loss": 0.3231, "step": 92 }, { "epoch": 0.031, "grad_norm": 1.3174939155578613, "learning_rate": 1.55e-05, "loss": 0.3513, "step": 93 }, { "epoch": 0.03133333333333333, "grad_norm": 1.34541916847229, "learning_rate": 1.5666666666666667e-05, "loss": 0.2929, "step": 94 }, { "epoch": 0.03166666666666667, "grad_norm": 1.528634786605835, "learning_rate": 1.5833333333333333e-05, "loss": 0.3563, "step": 95 }, { "epoch": 0.032, "grad_norm": 1.9558664560317993, "learning_rate": 1.6000000000000003e-05, "loss": 0.4464, "step": 96 }, { "epoch": 0.03233333333333333, "grad_norm": 1.5986521244049072, "learning_rate": 1.6166666666666665e-05, "loss": 0.3489, "step": 97 }, { "epoch": 0.03266666666666666, "grad_norm": 1.6344914436340332, "learning_rate": 1.6333333333333335e-05, "loss": 0.3991, "step": 98 }, { "epoch": 0.033, "grad_norm": 1.7303506135940552, "learning_rate": 1.65e-05, "loss": 0.4274, "step": 99 }, { "epoch": 0.03333333333333333, "grad_norm": 1.5459728240966797, "learning_rate": 1.6666666666666667e-05, "loss": 0.3306, "step": 100 }, { "epoch": 0.033666666666666664, "grad_norm": 1.6818580627441406, "learning_rate": 1.6833333333333334e-05, "loss": 0.3574, "step": 101 }, { "epoch": 0.034, "grad_norm": 1.5971468687057495, "learning_rate": 1.7000000000000003e-05, "loss": 0.3785, "step": 102 }, { "epoch": 0.034333333333333334, "grad_norm": 1.766853928565979, "learning_rate": 1.7166666666666666e-05, "loss": 0.353, "step": 103 }, { "epoch": 0.034666666666666665, "grad_norm": 1.368243932723999, "learning_rate": 1.7333333333333336e-05, "loss": 0.3294, "step": 104 }, { "epoch": 0.035, "grad_norm": 1.3657722473144531, "learning_rate": 1.75e-05, "loss": 0.2953, "step": 105 }, { "epoch": 0.035333333333333335, "grad_norm": 1.5740365982055664, "learning_rate": 1.7666666666666668e-05, "loss": 0.3543, "step": 106 }, { "epoch": 0.035666666666666666, "grad_norm": 1.4357829093933105, "learning_rate": 1.7833333333333334e-05, "loss": 0.3239, "step": 107 }, { "epoch": 0.036, "grad_norm": 1.8812717199325562, "learning_rate": 1.8e-05, "loss": 0.4263, "step": 108 }, { "epoch": 0.036333333333333336, "grad_norm": 1.4755126237869263, "learning_rate": 1.8166666666666667e-05, "loss": 0.3344, "step": 109 }, { "epoch": 0.03666666666666667, "grad_norm": 1.595537543296814, "learning_rate": 1.8333333333333333e-05, "loss": 0.3897, "step": 110 }, { "epoch": 0.037, "grad_norm": 1.5346170663833618, "learning_rate": 1.85e-05, "loss": 0.3256, "step": 111 }, { "epoch": 0.037333333333333336, "grad_norm": 1.4340442419052124, "learning_rate": 1.866666666666667e-05, "loss": 0.3085, "step": 112 }, { "epoch": 0.03766666666666667, "grad_norm": 1.5140653848648071, "learning_rate": 1.8833333333333335e-05, "loss": 0.331, "step": 113 }, { "epoch": 0.038, "grad_norm": 1.4573544263839722, "learning_rate": 1.9e-05, "loss": 0.3259, "step": 114 }, { "epoch": 0.03833333333333333, "grad_norm": 1.2812256813049316, "learning_rate": 1.9166666666666667e-05, "loss": 0.3135, "step": 115 }, { "epoch": 0.03866666666666667, "grad_norm": 1.53571617603302, "learning_rate": 1.9333333333333333e-05, "loss": 0.3623, "step": 116 }, { "epoch": 0.039, "grad_norm": 1.4054882526397705, "learning_rate": 1.9500000000000003e-05, "loss": 0.3083, "step": 117 }, { "epoch": 0.03933333333333333, "grad_norm": 1.5709601640701294, "learning_rate": 1.9666666666666666e-05, "loss": 0.3591, "step": 118 }, { "epoch": 0.03966666666666667, "grad_norm": 1.4430993795394897, "learning_rate": 1.9833333333333335e-05, "loss": 0.3235, "step": 119 }, { "epoch": 0.04, "grad_norm": 1.2675756216049194, "learning_rate": 2e-05, "loss": 0.3231, "step": 120 }, { "epoch": 0.04033333333333333, "grad_norm": 1.6907734870910645, "learning_rate": 2.0166666666666668e-05, "loss": 0.3788, "step": 121 }, { "epoch": 0.04066666666666666, "grad_norm": 1.5159516334533691, "learning_rate": 2.0333333333333334e-05, "loss": 0.3519, "step": 122 }, { "epoch": 0.041, "grad_norm": 1.7196882963180542, "learning_rate": 2.05e-05, "loss": 0.3817, "step": 123 }, { "epoch": 0.04133333333333333, "grad_norm": 1.728525996208191, "learning_rate": 2.0666666666666666e-05, "loss": 0.3381, "step": 124 }, { "epoch": 0.041666666666666664, "grad_norm": 1.74927818775177, "learning_rate": 2.0833333333333336e-05, "loss": 0.4133, "step": 125 }, { "epoch": 0.042, "grad_norm": 2.214763641357422, "learning_rate": 2.1e-05, "loss": 0.475, "step": 126 }, { "epoch": 0.042333333333333334, "grad_norm": 1.4449557065963745, "learning_rate": 2.116666666666667e-05, "loss": 0.3355, "step": 127 }, { "epoch": 0.042666666666666665, "grad_norm": 1.3350657224655151, "learning_rate": 2.1333333333333335e-05, "loss": 0.2971, "step": 128 }, { "epoch": 0.043, "grad_norm": 1.3243197202682495, "learning_rate": 2.15e-05, "loss": 0.2936, "step": 129 }, { "epoch": 0.043333333333333335, "grad_norm": 1.6345150470733643, "learning_rate": 2.1666666666666667e-05, "loss": 0.3521, "step": 130 }, { "epoch": 0.043666666666666666, "grad_norm": 2.0870022773742676, "learning_rate": 2.1833333333333333e-05, "loss": 0.4417, "step": 131 }, { "epoch": 0.044, "grad_norm": 1.5308624505996704, "learning_rate": 2.2000000000000003e-05, "loss": 0.3224, "step": 132 }, { "epoch": 0.044333333333333336, "grad_norm": 1.4620624780654907, "learning_rate": 2.216666666666667e-05, "loss": 0.3224, "step": 133 }, { "epoch": 0.04466666666666667, "grad_norm": 1.4036201238632202, "learning_rate": 2.2333333333333335e-05, "loss": 0.3004, "step": 134 }, { "epoch": 0.045, "grad_norm": 1.735681176185608, "learning_rate": 2.25e-05, "loss": 0.3303, "step": 135 }, { "epoch": 0.04533333333333334, "grad_norm": 1.4971989393234253, "learning_rate": 2.2666666666666668e-05, "loss": 0.3153, "step": 136 }, { "epoch": 0.04566666666666667, "grad_norm": 3.4707398414611816, "learning_rate": 2.2833333333333334e-05, "loss": 0.4312, "step": 137 }, { "epoch": 0.046, "grad_norm": 1.7263460159301758, "learning_rate": 2.3000000000000003e-05, "loss": 0.3923, "step": 138 }, { "epoch": 0.04633333333333333, "grad_norm": 1.3158482313156128, "learning_rate": 2.3166666666666666e-05, "loss": 0.3108, "step": 139 }, { "epoch": 0.04666666666666667, "grad_norm": 1.5561543703079224, "learning_rate": 2.3333333333333336e-05, "loss": 0.3619, "step": 140 }, { "epoch": 0.047, "grad_norm": 1.5590838193893433, "learning_rate": 2.35e-05, "loss": 0.3413, "step": 141 }, { "epoch": 0.04733333333333333, "grad_norm": 1.9386111497879028, "learning_rate": 2.3666666666666668e-05, "loss": 0.4538, "step": 142 }, { "epoch": 0.04766666666666667, "grad_norm": 1.4611613750457764, "learning_rate": 2.3833333333333334e-05, "loss": 0.3328, "step": 143 }, { "epoch": 0.048, "grad_norm": 1.4083524942398071, "learning_rate": 2.4e-05, "loss": 0.3683, "step": 144 }, { "epoch": 0.04833333333333333, "grad_norm": 4.442422866821289, "learning_rate": 2.4166666666666667e-05, "loss": 0.342, "step": 145 }, { "epoch": 0.048666666666666664, "grad_norm": 1.897199273109436, "learning_rate": 2.4333333333333336e-05, "loss": 0.3359, "step": 146 }, { "epoch": 0.049, "grad_norm": 1.455759882926941, "learning_rate": 2.45e-05, "loss": 0.3557, "step": 147 }, { "epoch": 0.04933333333333333, "grad_norm": 1.732920527458191, "learning_rate": 2.466666666666667e-05, "loss": 0.3624, "step": 148 }, { "epoch": 0.049666666666666665, "grad_norm": 1.6186577081680298, "learning_rate": 2.4833333333333335e-05, "loss": 0.4221, "step": 149 }, { "epoch": 0.05, "grad_norm": 2.151060104370117, "learning_rate": 2.5e-05, "loss": 0.4304, "step": 150 }, { "epoch": 0.050333333333333334, "grad_norm": 1.517791748046875, "learning_rate": 2.5166666666666667e-05, "loss": 0.3217, "step": 151 }, { "epoch": 0.050666666666666665, "grad_norm": 1.5455111265182495, "learning_rate": 2.5333333333333337e-05, "loss": 0.3484, "step": 152 }, { "epoch": 0.051, "grad_norm": 1.3353674411773682, "learning_rate": 2.5500000000000003e-05, "loss": 0.286, "step": 153 }, { "epoch": 0.051333333333333335, "grad_norm": 1.4271986484527588, "learning_rate": 2.5666666666666666e-05, "loss": 0.353, "step": 154 }, { "epoch": 0.051666666666666666, "grad_norm": 1.733125925064087, "learning_rate": 2.5833333333333336e-05, "loss": 0.3943, "step": 155 }, { "epoch": 0.052, "grad_norm": 6.120161533355713, "learning_rate": 2.6000000000000002e-05, "loss": 0.3833, "step": 156 }, { "epoch": 0.052333333333333336, "grad_norm": 1.6967121362686157, "learning_rate": 2.6166666666666668e-05, "loss": 0.3778, "step": 157 }, { "epoch": 0.05266666666666667, "grad_norm": 1.9036916494369507, "learning_rate": 2.633333333333333e-05, "loss": 0.2843, "step": 158 }, { "epoch": 0.053, "grad_norm": 1.7140095233917236, "learning_rate": 2.6500000000000004e-05, "loss": 0.3918, "step": 159 }, { "epoch": 0.05333333333333334, "grad_norm": 1.3422181606292725, "learning_rate": 2.6666666666666667e-05, "loss": 0.3402, "step": 160 }, { "epoch": 0.05366666666666667, "grad_norm": 1.3878352642059326, "learning_rate": 2.6833333333333333e-05, "loss": 0.3169, "step": 161 }, { "epoch": 0.054, "grad_norm": 1.446089744567871, "learning_rate": 2.7000000000000002e-05, "loss": 0.3438, "step": 162 }, { "epoch": 0.05433333333333333, "grad_norm": 1.2851896286010742, "learning_rate": 2.716666666666667e-05, "loss": 0.2795, "step": 163 }, { "epoch": 0.05466666666666667, "grad_norm": 1.4944298267364502, "learning_rate": 2.733333333333333e-05, "loss": 0.3463, "step": 164 }, { "epoch": 0.055, "grad_norm": 1.5940018892288208, "learning_rate": 2.7500000000000004e-05, "loss": 0.3653, "step": 165 }, { "epoch": 0.05533333333333333, "grad_norm": 1.2155016660690308, "learning_rate": 2.7666666666666667e-05, "loss": 0.3007, "step": 166 }, { "epoch": 0.05566666666666667, "grad_norm": 1.7410703897476196, "learning_rate": 2.7833333333333333e-05, "loss": 0.3656, "step": 167 }, { "epoch": 0.056, "grad_norm": 1.5186805725097656, "learning_rate": 2.8000000000000003e-05, "loss": 0.3309, "step": 168 }, { "epoch": 0.05633333333333333, "grad_norm": 1.3507519960403442, "learning_rate": 2.816666666666667e-05, "loss": 0.3209, "step": 169 }, { "epoch": 0.056666666666666664, "grad_norm": 1.378380298614502, "learning_rate": 2.8333333333333335e-05, "loss": 0.3257, "step": 170 }, { "epoch": 0.057, "grad_norm": 1.413633108139038, "learning_rate": 2.8499999999999998e-05, "loss": 0.3067, "step": 171 }, { "epoch": 0.05733333333333333, "grad_norm": 1.3859586715698242, "learning_rate": 2.8666666666666668e-05, "loss": 0.3464, "step": 172 }, { "epoch": 0.057666666666666665, "grad_norm": 1.281520128250122, "learning_rate": 2.8833333333333334e-05, "loss": 0.3538, "step": 173 }, { "epoch": 0.058, "grad_norm": 1.6939369440078735, "learning_rate": 2.9e-05, "loss": 0.4368, "step": 174 }, { "epoch": 0.058333333333333334, "grad_norm": 1.7700634002685547, "learning_rate": 2.916666666666667e-05, "loss": 0.33, "step": 175 }, { "epoch": 0.058666666666666666, "grad_norm": 1.4249154329299927, "learning_rate": 2.9333333333333336e-05, "loss": 0.3226, "step": 176 }, { "epoch": 0.059, "grad_norm": 1.3474069833755493, "learning_rate": 2.95e-05, "loss": 0.2756, "step": 177 }, { "epoch": 0.059333333333333335, "grad_norm": 1.2740994691848755, "learning_rate": 2.9666666666666672e-05, "loss": 0.266, "step": 178 }, { "epoch": 0.059666666666666666, "grad_norm": 1.8142409324645996, "learning_rate": 2.9833333333333335e-05, "loss": 0.3101, "step": 179 }, { "epoch": 0.06, "grad_norm": 1.4520740509033203, "learning_rate": 3e-05, "loss": 0.3521, "step": 180 }, { "epoch": 0.060333333333333336, "grad_norm": 1.609920859336853, "learning_rate": 3.016666666666667e-05, "loss": 0.3578, "step": 181 }, { "epoch": 0.06066666666666667, "grad_norm": 1.3788601160049438, "learning_rate": 3.0333333333333337e-05, "loss": 0.3204, "step": 182 }, { "epoch": 0.061, "grad_norm": 1.3609263896942139, "learning_rate": 3.05e-05, "loss": 0.3246, "step": 183 }, { "epoch": 0.06133333333333333, "grad_norm": 1.382299780845642, "learning_rate": 3.066666666666667e-05, "loss": 0.3385, "step": 184 }, { "epoch": 0.06166666666666667, "grad_norm": 1.9848756790161133, "learning_rate": 3.0833333333333335e-05, "loss": 0.3731, "step": 185 }, { "epoch": 0.062, "grad_norm": 1.4903755187988281, "learning_rate": 3.1e-05, "loss": 0.3489, "step": 186 }, { "epoch": 0.06233333333333333, "grad_norm": 1.3801896572113037, "learning_rate": 3.116666666666667e-05, "loss": 0.3621, "step": 187 }, { "epoch": 0.06266666666666666, "grad_norm": 1.6879767179489136, "learning_rate": 3.1333333333333334e-05, "loss": 0.451, "step": 188 }, { "epoch": 0.063, "grad_norm": 1.4495042562484741, "learning_rate": 3.15e-05, "loss": 0.2778, "step": 189 }, { "epoch": 0.06333333333333334, "grad_norm": 1.290792465209961, "learning_rate": 3.1666666666666666e-05, "loss": 0.2716, "step": 190 }, { "epoch": 0.06366666666666666, "grad_norm": 1.9189130067825317, "learning_rate": 3.183333333333334e-05, "loss": 0.4117, "step": 191 }, { "epoch": 0.064, "grad_norm": 1.5139693021774292, "learning_rate": 3.2000000000000005e-05, "loss": 0.3266, "step": 192 }, { "epoch": 0.06433333333333334, "grad_norm": 1.7017555236816406, "learning_rate": 3.2166666666666665e-05, "loss": 0.3157, "step": 193 }, { "epoch": 0.06466666666666666, "grad_norm": 1.440495252609253, "learning_rate": 3.233333333333333e-05, "loss": 0.3303, "step": 194 }, { "epoch": 0.065, "grad_norm": 1.4504367113113403, "learning_rate": 3.2500000000000004e-05, "loss": 0.2769, "step": 195 }, { "epoch": 0.06533333333333333, "grad_norm": 1.375322937965393, "learning_rate": 3.266666666666667e-05, "loss": 0.3783, "step": 196 }, { "epoch": 0.06566666666666666, "grad_norm": 1.6191874742507935, "learning_rate": 3.283333333333333e-05, "loss": 0.3312, "step": 197 }, { "epoch": 0.066, "grad_norm": 1.266046166419983, "learning_rate": 3.3e-05, "loss": 0.3533, "step": 198 }, { "epoch": 0.06633333333333333, "grad_norm": 2.0328266620635986, "learning_rate": 3.316666666666667e-05, "loss": 0.4017, "step": 199 }, { "epoch": 0.06666666666666667, "grad_norm": 1.5838234424591064, "learning_rate": 3.3333333333333335e-05, "loss": 0.4061, "step": 200 }, { "epoch": 0.067, "grad_norm": 1.679366946220398, "learning_rate": 3.35e-05, "loss": 0.4266, "step": 201 }, { "epoch": 0.06733333333333333, "grad_norm": 1.5685397386550903, "learning_rate": 3.366666666666667e-05, "loss": 0.4183, "step": 202 }, { "epoch": 0.06766666666666667, "grad_norm": 1.776902198791504, "learning_rate": 3.3833333333333334e-05, "loss": 0.3168, "step": 203 }, { "epoch": 0.068, "grad_norm": 1.7474539279937744, "learning_rate": 3.4000000000000007e-05, "loss": 0.3145, "step": 204 }, { "epoch": 0.06833333333333333, "grad_norm": 1.4013917446136475, "learning_rate": 3.4166666666666666e-05, "loss": 0.3322, "step": 205 }, { "epoch": 0.06866666666666667, "grad_norm": 1.459243655204773, "learning_rate": 3.433333333333333e-05, "loss": 0.3273, "step": 206 }, { "epoch": 0.069, "grad_norm": 1.4038946628570557, "learning_rate": 3.45e-05, "loss": 0.3238, "step": 207 }, { "epoch": 0.06933333333333333, "grad_norm": 1.5630148649215698, "learning_rate": 3.466666666666667e-05, "loss": 0.3368, "step": 208 }, { "epoch": 0.06966666666666667, "grad_norm": 1.4870696067810059, "learning_rate": 3.483333333333334e-05, "loss": 0.377, "step": 209 }, { "epoch": 0.07, "grad_norm": 1.5031110048294067, "learning_rate": 3.5e-05, "loss": 0.3609, "step": 210 }, { "epoch": 0.07033333333333333, "grad_norm": 1.6764661073684692, "learning_rate": 3.516666666666667e-05, "loss": 0.3562, "step": 211 }, { "epoch": 0.07066666666666667, "grad_norm": 1.6077598333358765, "learning_rate": 3.5333333333333336e-05, "loss": 0.3924, "step": 212 }, { "epoch": 0.071, "grad_norm": 1.7674628496170044, "learning_rate": 3.55e-05, "loss": 0.3631, "step": 213 }, { "epoch": 0.07133333333333333, "grad_norm": 1.62470543384552, "learning_rate": 3.566666666666667e-05, "loss": 0.3619, "step": 214 }, { "epoch": 0.07166666666666667, "grad_norm": 1.4642609357833862, "learning_rate": 3.5833333333333335e-05, "loss": 0.3153, "step": 215 }, { "epoch": 0.072, "grad_norm": 1.5644686222076416, "learning_rate": 3.6e-05, "loss": 0.3619, "step": 216 }, { "epoch": 0.07233333333333333, "grad_norm": 1.49044668674469, "learning_rate": 3.6166666666666674e-05, "loss": 0.3836, "step": 217 }, { "epoch": 0.07266666666666667, "grad_norm": 1.7291405200958252, "learning_rate": 3.633333333333333e-05, "loss": 0.4209, "step": 218 }, { "epoch": 0.073, "grad_norm": 1.5071781873703003, "learning_rate": 3.65e-05, "loss": 0.3236, "step": 219 }, { "epoch": 0.07333333333333333, "grad_norm": 2.787971258163452, "learning_rate": 3.6666666666666666e-05, "loss": 0.4086, "step": 220 }, { "epoch": 0.07366666666666667, "grad_norm": 1.4977898597717285, "learning_rate": 3.683333333333334e-05, "loss": 0.3655, "step": 221 }, { "epoch": 0.074, "grad_norm": 1.4775617122650146, "learning_rate": 3.7e-05, "loss": 0.3571, "step": 222 }, { "epoch": 0.07433333333333333, "grad_norm": 1.4579126834869385, "learning_rate": 3.7166666666666664e-05, "loss": 0.3274, "step": 223 }, { "epoch": 0.07466666666666667, "grad_norm": 1.5384258031845093, "learning_rate": 3.733333333333334e-05, "loss": 0.3591, "step": 224 }, { "epoch": 0.075, "grad_norm": 1.308038353919983, "learning_rate": 3.7500000000000003e-05, "loss": 0.279, "step": 225 }, { "epoch": 0.07533333333333334, "grad_norm": 1.5637880563735962, "learning_rate": 3.766666666666667e-05, "loss": 0.2898, "step": 226 }, { "epoch": 0.07566666666666666, "grad_norm": 1.479993462562561, "learning_rate": 3.7833333333333336e-05, "loss": 0.3416, "step": 227 }, { "epoch": 0.076, "grad_norm": 1.6080683469772339, "learning_rate": 3.8e-05, "loss": 0.3692, "step": 228 }, { "epoch": 0.07633333333333334, "grad_norm": 3.331662178039551, "learning_rate": 3.816666666666667e-05, "loss": 0.3672, "step": 229 }, { "epoch": 0.07666666666666666, "grad_norm": 2.0933995246887207, "learning_rate": 3.8333333333333334e-05, "loss": 0.3193, "step": 230 }, { "epoch": 0.077, "grad_norm": 1.4656376838684082, "learning_rate": 3.85e-05, "loss": 0.335, "step": 231 }, { "epoch": 0.07733333333333334, "grad_norm": 1.580031394958496, "learning_rate": 3.866666666666667e-05, "loss": 0.4765, "step": 232 }, { "epoch": 0.07766666666666666, "grad_norm": 1.611729383468628, "learning_rate": 3.883333333333333e-05, "loss": 0.318, "step": 233 }, { "epoch": 0.078, "grad_norm": 1.457902193069458, "learning_rate": 3.9000000000000006e-05, "loss": 0.3561, "step": 234 }, { "epoch": 0.07833333333333334, "grad_norm": 1.4646954536437988, "learning_rate": 3.9166666666666665e-05, "loss": 0.3688, "step": 235 }, { "epoch": 0.07866666666666666, "grad_norm": 1.5438694953918457, "learning_rate": 3.933333333333333e-05, "loss": 0.3741, "step": 236 }, { "epoch": 0.079, "grad_norm": 1.6718634366989136, "learning_rate": 3.9500000000000005e-05, "loss": 0.3651, "step": 237 }, { "epoch": 0.07933333333333334, "grad_norm": 1.49998939037323, "learning_rate": 3.966666666666667e-05, "loss": 0.3971, "step": 238 }, { "epoch": 0.07966666666666666, "grad_norm": 1.4909234046936035, "learning_rate": 3.983333333333333e-05, "loss": 0.3436, "step": 239 }, { "epoch": 0.08, "grad_norm": 1.335534691810608, "learning_rate": 4e-05, "loss": 0.2857, "step": 240 }, { "epoch": 0.08033333333333334, "grad_norm": 1.4363330602645874, "learning_rate": 4.016666666666667e-05, "loss": 0.2972, "step": 241 }, { "epoch": 0.08066666666666666, "grad_norm": 1.5053205490112305, "learning_rate": 4.0333333333333336e-05, "loss": 0.3726, "step": 242 }, { "epoch": 0.081, "grad_norm": 1.5662518739700317, "learning_rate": 4.05e-05, "loss": 0.3822, "step": 243 }, { "epoch": 0.08133333333333333, "grad_norm": 1.5105401277542114, "learning_rate": 4.066666666666667e-05, "loss": 0.3845, "step": 244 }, { "epoch": 0.08166666666666667, "grad_norm": 1.2965208292007446, "learning_rate": 4.0833333333333334e-05, "loss": 0.2714, "step": 245 }, { "epoch": 0.082, "grad_norm": 1.3468542098999023, "learning_rate": 4.1e-05, "loss": 0.3419, "step": 246 }, { "epoch": 0.08233333333333333, "grad_norm": 1.578986644744873, "learning_rate": 4.116666666666667e-05, "loss": 0.4288, "step": 247 }, { "epoch": 0.08266666666666667, "grad_norm": 1.452244520187378, "learning_rate": 4.133333333333333e-05, "loss": 0.3575, "step": 248 }, { "epoch": 0.083, "grad_norm": 1.5739537477493286, "learning_rate": 4.15e-05, "loss": 0.3433, "step": 249 }, { "epoch": 0.08333333333333333, "grad_norm": 1.482478141784668, "learning_rate": 4.166666666666667e-05, "loss": 0.3903, "step": 250 }, { "epoch": 0.08366666666666667, "grad_norm": 1.4102691411972046, "learning_rate": 4.183333333333334e-05, "loss": 0.324, "step": 251 }, { "epoch": 0.084, "grad_norm": 1.3748400211334229, "learning_rate": 4.2e-05, "loss": 0.3348, "step": 252 }, { "epoch": 0.08433333333333333, "grad_norm": 1.3118107318878174, "learning_rate": 4.216666666666667e-05, "loss": 0.2931, "step": 253 }, { "epoch": 0.08466666666666667, "grad_norm": 1.5641124248504639, "learning_rate": 4.233333333333334e-05, "loss": 0.4123, "step": 254 }, { "epoch": 0.085, "grad_norm": 1.3105560541152954, "learning_rate": 4.25e-05, "loss": 0.3441, "step": 255 }, { "epoch": 0.08533333333333333, "grad_norm": 1.5378347635269165, "learning_rate": 4.266666666666667e-05, "loss": 0.3702, "step": 256 }, { "epoch": 0.08566666666666667, "grad_norm": 1.5331541299819946, "learning_rate": 4.2833333333333335e-05, "loss": 0.4366, "step": 257 }, { "epoch": 0.086, "grad_norm": 1.18148672580719, "learning_rate": 4.3e-05, "loss": 0.2741, "step": 258 }, { "epoch": 0.08633333333333333, "grad_norm": 1.4464715719223022, "learning_rate": 4.316666666666667e-05, "loss": 0.334, "step": 259 }, { "epoch": 0.08666666666666667, "grad_norm": 1.552941918373108, "learning_rate": 4.3333333333333334e-05, "loss": 0.3906, "step": 260 }, { "epoch": 0.087, "grad_norm": 1.51602041721344, "learning_rate": 4.35e-05, "loss": 0.3549, "step": 261 }, { "epoch": 0.08733333333333333, "grad_norm": 1.4399656057357788, "learning_rate": 4.3666666666666666e-05, "loss": 0.3437, "step": 262 }, { "epoch": 0.08766666666666667, "grad_norm": 1.3392916917800903, "learning_rate": 4.383333333333334e-05, "loss": 0.2961, "step": 263 }, { "epoch": 0.088, "grad_norm": 1.626286506652832, "learning_rate": 4.4000000000000006e-05, "loss": 0.3532, "step": 264 }, { "epoch": 0.08833333333333333, "grad_norm": 1.6674925088882446, "learning_rate": 4.4166666666666665e-05, "loss": 0.4064, "step": 265 }, { "epoch": 0.08866666666666667, "grad_norm": 1.3257759809494019, "learning_rate": 4.433333333333334e-05, "loss": 0.2652, "step": 266 }, { "epoch": 0.089, "grad_norm": 1.5646772384643555, "learning_rate": 4.4500000000000004e-05, "loss": 0.3433, "step": 267 }, { "epoch": 0.08933333333333333, "grad_norm": 1.5401488542556763, "learning_rate": 4.466666666666667e-05, "loss": 0.4299, "step": 268 }, { "epoch": 0.08966666666666667, "grad_norm": 1.3046114444732666, "learning_rate": 4.483333333333333e-05, "loss": 0.3763, "step": 269 }, { "epoch": 0.09, "grad_norm": 1.4883687496185303, "learning_rate": 4.5e-05, "loss": 0.4005, "step": 270 }, { "epoch": 0.09033333333333333, "grad_norm": 1.20869779586792, "learning_rate": 4.516666666666667e-05, "loss": 0.3037, "step": 271 }, { "epoch": 0.09066666666666667, "grad_norm": 1.4379864931106567, "learning_rate": 4.5333333333333335e-05, "loss": 0.3505, "step": 272 }, { "epoch": 0.091, "grad_norm": 1.5501856803894043, "learning_rate": 4.55e-05, "loss": 0.3676, "step": 273 }, { "epoch": 0.09133333333333334, "grad_norm": 1.6164238452911377, "learning_rate": 4.566666666666667e-05, "loss": 0.3604, "step": 274 }, { "epoch": 0.09166666666666666, "grad_norm": 1.5581339597702026, "learning_rate": 4.5833333333333334e-05, "loss": 0.415, "step": 275 }, { "epoch": 0.092, "grad_norm": 1.9566978216171265, "learning_rate": 4.600000000000001e-05, "loss": 0.2886, "step": 276 }, { "epoch": 0.09233333333333334, "grad_norm": 1.4752821922302246, "learning_rate": 4.6166666666666666e-05, "loss": 0.3575, "step": 277 }, { "epoch": 0.09266666666666666, "grad_norm": 1.5628986358642578, "learning_rate": 4.633333333333333e-05, "loss": 0.3825, "step": 278 }, { "epoch": 0.093, "grad_norm": 2.187627077102661, "learning_rate": 4.6500000000000005e-05, "loss": 0.391, "step": 279 }, { "epoch": 0.09333333333333334, "grad_norm": 1.5310142040252686, "learning_rate": 4.666666666666667e-05, "loss": 0.3838, "step": 280 }, { "epoch": 0.09366666666666666, "grad_norm": 1.543420433998108, "learning_rate": 4.683333333333334e-05, "loss": 0.3011, "step": 281 }, { "epoch": 0.094, "grad_norm": 1.5134119987487793, "learning_rate": 4.7e-05, "loss": 0.3686, "step": 282 }, { "epoch": 0.09433333333333334, "grad_norm": 1.967798113822937, "learning_rate": 4.716666666666667e-05, "loss": 0.4176, "step": 283 }, { "epoch": 0.09466666666666666, "grad_norm": 2.0906894207000732, "learning_rate": 4.7333333333333336e-05, "loss": 0.358, "step": 284 }, { "epoch": 0.095, "grad_norm": 1.3834588527679443, "learning_rate": 4.75e-05, "loss": 0.389, "step": 285 }, { "epoch": 0.09533333333333334, "grad_norm": 1.6481044292449951, "learning_rate": 4.766666666666667e-05, "loss": 0.3488, "step": 286 }, { "epoch": 0.09566666666666666, "grad_norm": 1.325629472732544, "learning_rate": 4.7833333333333335e-05, "loss": 0.3003, "step": 287 }, { "epoch": 0.096, "grad_norm": 1.701684832572937, "learning_rate": 4.8e-05, "loss": 0.4497, "step": 288 }, { "epoch": 0.09633333333333334, "grad_norm": 1.6686456203460693, "learning_rate": 4.8166666666666674e-05, "loss": 0.3482, "step": 289 }, { "epoch": 0.09666666666666666, "grad_norm": 1.8158715963363647, "learning_rate": 4.8333333333333334e-05, "loss": 0.3567, "step": 290 }, { "epoch": 0.097, "grad_norm": 1.6466172933578491, "learning_rate": 4.85e-05, "loss": 0.3868, "step": 291 }, { "epoch": 0.09733333333333333, "grad_norm": 1.4000461101531982, "learning_rate": 4.866666666666667e-05, "loss": 0.3448, "step": 292 }, { "epoch": 0.09766666666666667, "grad_norm": 1.7131824493408203, "learning_rate": 4.883333333333334e-05, "loss": 0.3907, "step": 293 }, { "epoch": 0.098, "grad_norm": 6.926778793334961, "learning_rate": 4.9e-05, "loss": 0.3705, "step": 294 }, { "epoch": 0.09833333333333333, "grad_norm": 1.515509009361267, "learning_rate": 4.9166666666666665e-05, "loss": 0.3596, "step": 295 }, { "epoch": 0.09866666666666667, "grad_norm": 2.7844343185424805, "learning_rate": 4.933333333333334e-05, "loss": 0.3776, "step": 296 }, { "epoch": 0.099, "grad_norm": 1.605407953262329, "learning_rate": 4.9500000000000004e-05, "loss": 0.3319, "step": 297 }, { "epoch": 0.09933333333333333, "grad_norm": 1.6420544385910034, "learning_rate": 4.966666666666667e-05, "loss": 0.4242, "step": 298 }, { "epoch": 0.09966666666666667, "grad_norm": 1.577746868133545, "learning_rate": 4.9833333333333336e-05, "loss": 0.3658, "step": 299 }, { "epoch": 0.1, "grad_norm": 1.9592171907424927, "learning_rate": 5e-05, "loss": 0.3846, "step": 300 }, { "epoch": 0.10033333333333333, "grad_norm": 1.5824711322784424, "learning_rate": 4.998148148148148e-05, "loss": 0.4153, "step": 301 }, { "epoch": 0.10066666666666667, "grad_norm": 1.4897867441177368, "learning_rate": 4.9962962962962964e-05, "loss": 0.3189, "step": 302 }, { "epoch": 0.101, "grad_norm": 1.5191915035247803, "learning_rate": 4.994444444444445e-05, "loss": 0.3831, "step": 303 }, { "epoch": 0.10133333333333333, "grad_norm": 1.619132399559021, "learning_rate": 4.9925925925925926e-05, "loss": 0.3979, "step": 304 }, { "epoch": 0.10166666666666667, "grad_norm": 1.4781115055084229, "learning_rate": 4.9907407407407406e-05, "loss": 0.353, "step": 305 }, { "epoch": 0.102, "grad_norm": 1.4926246404647827, "learning_rate": 4.9888888888888894e-05, "loss": 0.3419, "step": 306 }, { "epoch": 0.10233333333333333, "grad_norm": 1.7952423095703125, "learning_rate": 4.9870370370370375e-05, "loss": 0.5152, "step": 307 }, { "epoch": 0.10266666666666667, "grad_norm": 1.4844441413879395, "learning_rate": 4.9851851851851855e-05, "loss": 0.3638, "step": 308 }, { "epoch": 0.103, "grad_norm": 1.7583948373794556, "learning_rate": 4.9833333333333336e-05, "loss": 0.412, "step": 309 }, { "epoch": 0.10333333333333333, "grad_norm": 1.615587830543518, "learning_rate": 4.981481481481482e-05, "loss": 0.3168, "step": 310 }, { "epoch": 0.10366666666666667, "grad_norm": 1.519759178161621, "learning_rate": 4.97962962962963e-05, "loss": 0.3732, "step": 311 }, { "epoch": 0.104, "grad_norm": 1.3965352773666382, "learning_rate": 4.977777777777778e-05, "loss": 0.4101, "step": 312 }, { "epoch": 0.10433333333333333, "grad_norm": 1.3635843992233276, "learning_rate": 4.975925925925926e-05, "loss": 0.3255, "step": 313 }, { "epoch": 0.10466666666666667, "grad_norm": 1.4801793098449707, "learning_rate": 4.974074074074074e-05, "loss": 0.3583, "step": 314 }, { "epoch": 0.105, "grad_norm": 1.591237187385559, "learning_rate": 4.972222222222223e-05, "loss": 0.3393, "step": 315 }, { "epoch": 0.10533333333333333, "grad_norm": 1.5205988883972168, "learning_rate": 4.970370370370371e-05, "loss": 0.4168, "step": 316 }, { "epoch": 0.10566666666666667, "grad_norm": 1.8333476781845093, "learning_rate": 4.968518518518519e-05, "loss": 0.3803, "step": 317 }, { "epoch": 0.106, "grad_norm": 1.692940592765808, "learning_rate": 4.966666666666667e-05, "loss": 0.3542, "step": 318 }, { "epoch": 0.10633333333333334, "grad_norm": 1.5380736589431763, "learning_rate": 4.964814814814815e-05, "loss": 0.4271, "step": 319 }, { "epoch": 0.10666666666666667, "grad_norm": 1.168047547340393, "learning_rate": 4.962962962962963e-05, "loss": 0.308, "step": 320 }, { "epoch": 0.107, "grad_norm": 1.681167721748352, "learning_rate": 4.961111111111111e-05, "loss": 0.4, "step": 321 }, { "epoch": 0.10733333333333334, "grad_norm": 1.6703509092330933, "learning_rate": 4.959259259259259e-05, "loss": 0.3961, "step": 322 }, { "epoch": 0.10766666666666666, "grad_norm": 1.7819141149520874, "learning_rate": 4.957407407407408e-05, "loss": 0.3836, "step": 323 }, { "epoch": 0.108, "grad_norm": 1.3892372846603394, "learning_rate": 4.955555555555556e-05, "loss": 0.3315, "step": 324 }, { "epoch": 0.10833333333333334, "grad_norm": 1.8924736976623535, "learning_rate": 4.9537037037037035e-05, "loss": 0.3776, "step": 325 }, { "epoch": 0.10866666666666666, "grad_norm": 1.8088842630386353, "learning_rate": 4.951851851851852e-05, "loss": 0.3925, "step": 326 }, { "epoch": 0.109, "grad_norm": 1.5073802471160889, "learning_rate": 4.9500000000000004e-05, "loss": 0.3759, "step": 327 }, { "epoch": 0.10933333333333334, "grad_norm": 1.6175148487091064, "learning_rate": 4.9481481481481485e-05, "loss": 0.4247, "step": 328 }, { "epoch": 0.10966666666666666, "grad_norm": 1.516506314277649, "learning_rate": 4.9462962962962965e-05, "loss": 0.3929, "step": 329 }, { "epoch": 0.11, "grad_norm": 1.4654260873794556, "learning_rate": 4.9444444444444446e-05, "loss": 0.3604, "step": 330 }, { "epoch": 0.11033333333333334, "grad_norm": 2.3211357593536377, "learning_rate": 4.942592592592593e-05, "loss": 0.387, "step": 331 }, { "epoch": 0.11066666666666666, "grad_norm": 1.5019792318344116, "learning_rate": 4.940740740740741e-05, "loss": 0.4104, "step": 332 }, { "epoch": 0.111, "grad_norm": 1.5635384321212769, "learning_rate": 4.938888888888889e-05, "loss": 0.373, "step": 333 }, { "epoch": 0.11133333333333334, "grad_norm": 1.4854447841644287, "learning_rate": 4.937037037037037e-05, "loss": 0.3901, "step": 334 }, { "epoch": 0.11166666666666666, "grad_norm": 1.634382724761963, "learning_rate": 4.935185185185186e-05, "loss": 0.4457, "step": 335 }, { "epoch": 0.112, "grad_norm": 1.4691849946975708, "learning_rate": 4.933333333333334e-05, "loss": 0.3956, "step": 336 }, { "epoch": 0.11233333333333333, "grad_norm": 1.7635351419448853, "learning_rate": 4.931481481481482e-05, "loss": 0.4459, "step": 337 }, { "epoch": 0.11266666666666666, "grad_norm": 1.4270474910736084, "learning_rate": 4.92962962962963e-05, "loss": 0.3152, "step": 338 }, { "epoch": 0.113, "grad_norm": 1.3785789012908936, "learning_rate": 4.927777777777778e-05, "loss": 0.3155, "step": 339 }, { "epoch": 0.11333333333333333, "grad_norm": 1.5080225467681885, "learning_rate": 4.925925925925926e-05, "loss": 0.4339, "step": 340 }, { "epoch": 0.11366666666666667, "grad_norm": 1.536300778388977, "learning_rate": 4.924074074074074e-05, "loss": 0.3227, "step": 341 }, { "epoch": 0.114, "grad_norm": 1.619066834449768, "learning_rate": 4.922222222222222e-05, "loss": 0.4118, "step": 342 }, { "epoch": 0.11433333333333333, "grad_norm": 1.470788598060608, "learning_rate": 4.920370370370371e-05, "loss": 0.3655, "step": 343 }, { "epoch": 0.11466666666666667, "grad_norm": 2.8463382720947266, "learning_rate": 4.918518518518519e-05, "loss": 0.3205, "step": 344 }, { "epoch": 0.115, "grad_norm": 1.6264667510986328, "learning_rate": 4.9166666666666665e-05, "loss": 0.3792, "step": 345 }, { "epoch": 0.11533333333333333, "grad_norm": 1.660156011581421, "learning_rate": 4.9148148148148145e-05, "loss": 0.451, "step": 346 }, { "epoch": 0.11566666666666667, "grad_norm": 1.513501763343811, "learning_rate": 4.912962962962963e-05, "loss": 0.3873, "step": 347 }, { "epoch": 0.116, "grad_norm": 1.311440348625183, "learning_rate": 4.9111111111111114e-05, "loss": 0.2904, "step": 348 }, { "epoch": 0.11633333333333333, "grad_norm": 1.6002171039581299, "learning_rate": 4.9092592592592595e-05, "loss": 0.3901, "step": 349 }, { "epoch": 0.11666666666666667, "grad_norm": 1.3863859176635742, "learning_rate": 4.9074074074074075e-05, "loss": 0.3675, "step": 350 }, { "epoch": 0.117, "grad_norm": 1.4766677618026733, "learning_rate": 4.905555555555556e-05, "loss": 0.3755, "step": 351 }, { "epoch": 0.11733333333333333, "grad_norm": 1.4965181350708008, "learning_rate": 4.903703703703704e-05, "loss": 0.374, "step": 352 }, { "epoch": 0.11766666666666667, "grad_norm": 1.6470006704330444, "learning_rate": 4.901851851851852e-05, "loss": 0.3664, "step": 353 }, { "epoch": 0.118, "grad_norm": 1.9289568662643433, "learning_rate": 4.9e-05, "loss": 0.4022, "step": 354 }, { "epoch": 0.11833333333333333, "grad_norm": 1.4589459896087646, "learning_rate": 4.8981481481481486e-05, "loss": 0.347, "step": 355 }, { "epoch": 0.11866666666666667, "grad_norm": 1.5202605724334717, "learning_rate": 4.896296296296297e-05, "loss": 0.358, "step": 356 }, { "epoch": 0.119, "grad_norm": 1.4946200847625732, "learning_rate": 4.894444444444445e-05, "loss": 0.3375, "step": 357 }, { "epoch": 0.11933333333333333, "grad_norm": 1.8175865411758423, "learning_rate": 4.892592592592593e-05, "loss": 0.4148, "step": 358 }, { "epoch": 0.11966666666666667, "grad_norm": 1.3258353471755981, "learning_rate": 4.890740740740741e-05, "loss": 0.3133, "step": 359 }, { "epoch": 0.12, "grad_norm": 1.7926863431930542, "learning_rate": 4.888888888888889e-05, "loss": 0.5019, "step": 360 }, { "epoch": 0.12033333333333333, "grad_norm": 1.3644227981567383, "learning_rate": 4.887037037037037e-05, "loss": 0.3788, "step": 361 }, { "epoch": 0.12066666666666667, "grad_norm": 1.3067071437835693, "learning_rate": 4.885185185185185e-05, "loss": 0.3615, "step": 362 }, { "epoch": 0.121, "grad_norm": 1.4631500244140625, "learning_rate": 4.883333333333334e-05, "loss": 0.3555, "step": 363 }, { "epoch": 0.12133333333333333, "grad_norm": 1.3096414804458618, "learning_rate": 4.881481481481482e-05, "loss": 0.3161, "step": 364 }, { "epoch": 0.12166666666666667, "grad_norm": 1.5563383102416992, "learning_rate": 4.87962962962963e-05, "loss": 0.3903, "step": 365 }, { "epoch": 0.122, "grad_norm": 1.45024573802948, "learning_rate": 4.8777777777777775e-05, "loss": 0.3335, "step": 366 }, { "epoch": 0.12233333333333334, "grad_norm": 1.3422824144363403, "learning_rate": 4.875925925925926e-05, "loss": 0.3419, "step": 367 }, { "epoch": 0.12266666666666666, "grad_norm": 1.779746651649475, "learning_rate": 4.874074074074074e-05, "loss": 0.4075, "step": 368 }, { "epoch": 0.123, "grad_norm": 1.5517817735671997, "learning_rate": 4.8722222222222224e-05, "loss": 0.3384, "step": 369 }, { "epoch": 0.12333333333333334, "grad_norm": 1.6251047849655151, "learning_rate": 4.8703703703703704e-05, "loss": 0.3878, "step": 370 }, { "epoch": 0.12366666666666666, "grad_norm": 1.40427565574646, "learning_rate": 4.868518518518519e-05, "loss": 0.3203, "step": 371 }, { "epoch": 0.124, "grad_norm": 1.3117016553878784, "learning_rate": 4.866666666666667e-05, "loss": 0.3891, "step": 372 }, { "epoch": 0.12433333333333334, "grad_norm": 1.444316029548645, "learning_rate": 4.864814814814815e-05, "loss": 0.3567, "step": 373 }, { "epoch": 0.12466666666666666, "grad_norm": 1.483818769454956, "learning_rate": 4.862962962962963e-05, "loss": 0.347, "step": 374 }, { "epoch": 0.125, "grad_norm": 5.050604820251465, "learning_rate": 4.8611111111111115e-05, "loss": 0.436, "step": 375 }, { "epoch": 0.12533333333333332, "grad_norm": 2.0448899269104004, "learning_rate": 4.8592592592592596e-05, "loss": 0.3999, "step": 376 }, { "epoch": 0.12566666666666668, "grad_norm": 1.5457038879394531, "learning_rate": 4.857407407407408e-05, "loss": 0.3809, "step": 377 }, { "epoch": 0.126, "grad_norm": 1.1272550821304321, "learning_rate": 4.855555555555556e-05, "loss": 0.2861, "step": 378 }, { "epoch": 0.12633333333333333, "grad_norm": 1.2987323999404907, "learning_rate": 4.8537037037037045e-05, "loss": 0.3667, "step": 379 }, { "epoch": 0.12666666666666668, "grad_norm": 1.317092776298523, "learning_rate": 4.851851851851852e-05, "loss": 0.3122, "step": 380 }, { "epoch": 0.127, "grad_norm": 1.9207242727279663, "learning_rate": 4.85e-05, "loss": 0.4691, "step": 381 }, { "epoch": 0.12733333333333333, "grad_norm": 1.8333582878112793, "learning_rate": 4.848148148148148e-05, "loss": 0.4399, "step": 382 }, { "epoch": 0.12766666666666668, "grad_norm": 1.4632537364959717, "learning_rate": 4.846296296296297e-05, "loss": 0.2977, "step": 383 }, { "epoch": 0.128, "grad_norm": 1.47628915309906, "learning_rate": 4.844444444444445e-05, "loss": 0.3357, "step": 384 }, { "epoch": 0.12833333333333333, "grad_norm": 1.628018856048584, "learning_rate": 4.842592592592593e-05, "loss": 0.3637, "step": 385 }, { "epoch": 0.12866666666666668, "grad_norm": 1.3261082172393799, "learning_rate": 4.840740740740741e-05, "loss": 0.3491, "step": 386 }, { "epoch": 0.129, "grad_norm": 1.5615298748016357, "learning_rate": 4.838888888888889e-05, "loss": 0.3898, "step": 387 }, { "epoch": 0.12933333333333333, "grad_norm": 1.3540629148483276, "learning_rate": 4.837037037037037e-05, "loss": 0.3469, "step": 388 }, { "epoch": 0.12966666666666668, "grad_norm": 1.8067810535430908, "learning_rate": 4.835185185185185e-05, "loss": 0.4265, "step": 389 }, { "epoch": 0.13, "grad_norm": 1.4625282287597656, "learning_rate": 4.8333333333333334e-05, "loss": 0.4109, "step": 390 }, { "epoch": 0.13033333333333333, "grad_norm": 1.2926377058029175, "learning_rate": 4.831481481481482e-05, "loss": 0.35, "step": 391 }, { "epoch": 0.13066666666666665, "grad_norm": 1.5411444902420044, "learning_rate": 4.82962962962963e-05, "loss": 0.3599, "step": 392 }, { "epoch": 0.131, "grad_norm": 1.6826238632202148, "learning_rate": 4.8277777777777776e-05, "loss": 0.5067, "step": 393 }, { "epoch": 0.13133333333333333, "grad_norm": 1.5270205736160278, "learning_rate": 4.825925925925926e-05, "loss": 0.4664, "step": 394 }, { "epoch": 0.13166666666666665, "grad_norm": 1.546836256980896, "learning_rate": 4.8240740740740744e-05, "loss": 0.3871, "step": 395 }, { "epoch": 0.132, "grad_norm": 1.5166618824005127, "learning_rate": 4.8222222222222225e-05, "loss": 0.3154, "step": 396 }, { "epoch": 0.13233333333333333, "grad_norm": 1.4706875085830688, "learning_rate": 4.8203703703703706e-05, "loss": 0.37, "step": 397 }, { "epoch": 0.13266666666666665, "grad_norm": 1.577710509300232, "learning_rate": 4.818518518518519e-05, "loss": 0.3334, "step": 398 }, { "epoch": 0.133, "grad_norm": 2.96756911277771, "learning_rate": 4.8166666666666674e-05, "loss": 0.3901, "step": 399 }, { "epoch": 0.13333333333333333, "grad_norm": 1.3939603567123413, "learning_rate": 4.814814814814815e-05, "loss": 0.3086, "step": 400 }, { "epoch": 0.13366666666666666, "grad_norm": 1.8783942461013794, "learning_rate": 4.812962962962963e-05, "loss": 0.5443, "step": 401 }, { "epoch": 0.134, "grad_norm": 1.639843225479126, "learning_rate": 4.811111111111111e-05, "loss": 0.5519, "step": 402 }, { "epoch": 0.13433333333333333, "grad_norm": 1.6600115299224854, "learning_rate": 4.80925925925926e-05, "loss": 0.3592, "step": 403 }, { "epoch": 0.13466666666666666, "grad_norm": 1.3091179132461548, "learning_rate": 4.807407407407408e-05, "loss": 0.3065, "step": 404 }, { "epoch": 0.135, "grad_norm": 3.4881818294525146, "learning_rate": 4.805555555555556e-05, "loss": 0.3254, "step": 405 }, { "epoch": 0.13533333333333333, "grad_norm": 1.6983367204666138, "learning_rate": 4.803703703703704e-05, "loss": 0.4013, "step": 406 }, { "epoch": 0.13566666666666666, "grad_norm": 1.4208776950836182, "learning_rate": 4.801851851851852e-05, "loss": 0.3775, "step": 407 }, { "epoch": 0.136, "grad_norm": 1.1817011833190918, "learning_rate": 4.8e-05, "loss": 0.3014, "step": 408 }, { "epoch": 0.13633333333333333, "grad_norm": 2.8179917335510254, "learning_rate": 4.798148148148148e-05, "loss": 0.3102, "step": 409 }, { "epoch": 0.13666666666666666, "grad_norm": 1.780457615852356, "learning_rate": 4.796296296296296e-05, "loss": 0.3795, "step": 410 }, { "epoch": 0.137, "grad_norm": 2.187234878540039, "learning_rate": 4.794444444444445e-05, "loss": 0.4098, "step": 411 }, { "epoch": 0.13733333333333334, "grad_norm": 1.4273678064346313, "learning_rate": 4.792592592592593e-05, "loss": 0.3654, "step": 412 }, { "epoch": 0.13766666666666666, "grad_norm": 1.4316853284835815, "learning_rate": 4.790740740740741e-05, "loss": 0.3317, "step": 413 }, { "epoch": 0.138, "grad_norm": 1.5158627033233643, "learning_rate": 4.7888888888888886e-05, "loss": 0.4107, "step": 414 }, { "epoch": 0.13833333333333334, "grad_norm": 1.4416333436965942, "learning_rate": 4.7870370370370373e-05, "loss": 0.356, "step": 415 }, { "epoch": 0.13866666666666666, "grad_norm": 1.600272297859192, "learning_rate": 4.7851851851851854e-05, "loss": 0.4041, "step": 416 }, { "epoch": 0.139, "grad_norm": 1.4517465829849243, "learning_rate": 4.7833333333333335e-05, "loss": 0.3554, "step": 417 }, { "epoch": 0.13933333333333334, "grad_norm": 1.8297104835510254, "learning_rate": 4.7814814814814816e-05, "loss": 0.4244, "step": 418 }, { "epoch": 0.13966666666666666, "grad_norm": 1.4831371307373047, "learning_rate": 4.77962962962963e-05, "loss": 0.3987, "step": 419 }, { "epoch": 0.14, "grad_norm": 1.6603938341140747, "learning_rate": 4.7777777777777784e-05, "loss": 0.4253, "step": 420 }, { "epoch": 0.14033333333333334, "grad_norm": 1.577906847000122, "learning_rate": 4.775925925925926e-05, "loss": 0.4154, "step": 421 }, { "epoch": 0.14066666666666666, "grad_norm": 1.594200611114502, "learning_rate": 4.774074074074074e-05, "loss": 0.3967, "step": 422 }, { "epoch": 0.141, "grad_norm": 1.3381290435791016, "learning_rate": 4.7722222222222226e-05, "loss": 0.3398, "step": 423 }, { "epoch": 0.14133333333333334, "grad_norm": 1.574758768081665, "learning_rate": 4.770370370370371e-05, "loss": 0.2969, "step": 424 }, { "epoch": 0.14166666666666666, "grad_norm": 1.4329252243041992, "learning_rate": 4.768518518518519e-05, "loss": 0.3546, "step": 425 }, { "epoch": 0.142, "grad_norm": 1.4215891361236572, "learning_rate": 4.766666666666667e-05, "loss": 0.3441, "step": 426 }, { "epoch": 0.14233333333333334, "grad_norm": 1.549372673034668, "learning_rate": 4.764814814814815e-05, "loss": 0.3625, "step": 427 }, { "epoch": 0.14266666666666666, "grad_norm": 1.610260009765625, "learning_rate": 4.762962962962963e-05, "loss": 0.3933, "step": 428 }, { "epoch": 0.143, "grad_norm": 1.4108293056488037, "learning_rate": 4.761111111111111e-05, "loss": 0.354, "step": 429 }, { "epoch": 0.14333333333333334, "grad_norm": 2.310365676879883, "learning_rate": 4.759259259259259e-05, "loss": 0.3825, "step": 430 }, { "epoch": 0.14366666666666666, "grad_norm": 1.607605218887329, "learning_rate": 4.757407407407408e-05, "loss": 0.4195, "step": 431 }, { "epoch": 0.144, "grad_norm": 1.4815714359283447, "learning_rate": 4.755555555555556e-05, "loss": 0.3548, "step": 432 }, { "epoch": 0.14433333333333334, "grad_norm": 1.4924988746643066, "learning_rate": 4.753703703703704e-05, "loss": 0.3967, "step": 433 }, { "epoch": 0.14466666666666667, "grad_norm": 2.915475368499756, "learning_rate": 4.751851851851852e-05, "loss": 0.3949, "step": 434 }, { "epoch": 0.145, "grad_norm": 1.5413134098052979, "learning_rate": 4.75e-05, "loss": 0.3973, "step": 435 }, { "epoch": 0.14533333333333334, "grad_norm": 1.9248411655426025, "learning_rate": 4.7481481481481483e-05, "loss": 0.3784, "step": 436 }, { "epoch": 0.14566666666666667, "grad_norm": 1.6248245239257812, "learning_rate": 4.7462962962962964e-05, "loss": 0.4119, "step": 437 }, { "epoch": 0.146, "grad_norm": 1.705633282661438, "learning_rate": 4.7444444444444445e-05, "loss": 0.4396, "step": 438 }, { "epoch": 0.14633333333333334, "grad_norm": 1.4687634706497192, "learning_rate": 4.742592592592593e-05, "loss": 0.3852, "step": 439 }, { "epoch": 0.14666666666666667, "grad_norm": 1.8919180631637573, "learning_rate": 4.740740740740741e-05, "loss": 0.3819, "step": 440 }, { "epoch": 0.147, "grad_norm": 1.371976375579834, "learning_rate": 4.7388888888888894e-05, "loss": 0.3571, "step": 441 }, { "epoch": 0.14733333333333334, "grad_norm": 2.8801138401031494, "learning_rate": 4.737037037037037e-05, "loss": 0.4213, "step": 442 }, { "epoch": 0.14766666666666667, "grad_norm": 1.6173559427261353, "learning_rate": 4.7351851851851856e-05, "loss": 0.3702, "step": 443 }, { "epoch": 0.148, "grad_norm": 1.2258858680725098, "learning_rate": 4.7333333333333336e-05, "loss": 0.3285, "step": 444 }, { "epoch": 0.14833333333333334, "grad_norm": 1.3034180402755737, "learning_rate": 4.731481481481482e-05, "loss": 0.3267, "step": 445 }, { "epoch": 0.14866666666666667, "grad_norm": 1.6660559177398682, "learning_rate": 4.72962962962963e-05, "loss": 0.4348, "step": 446 }, { "epoch": 0.149, "grad_norm": 1.300252079963684, "learning_rate": 4.727777777777778e-05, "loss": 0.3129, "step": 447 }, { "epoch": 0.14933333333333335, "grad_norm": 1.5774869918823242, "learning_rate": 4.7259259259259266e-05, "loss": 0.3948, "step": 448 }, { "epoch": 0.14966666666666667, "grad_norm": 1.485144853591919, "learning_rate": 4.724074074074074e-05, "loss": 0.3215, "step": 449 }, { "epoch": 0.15, "grad_norm": 1.4521360397338867, "learning_rate": 4.722222222222222e-05, "loss": 0.3585, "step": 450 }, { "epoch": 0.15033333333333335, "grad_norm": 1.3035513162612915, "learning_rate": 4.720370370370371e-05, "loss": 0.2725, "step": 451 }, { "epoch": 0.15066666666666667, "grad_norm": 1.727379322052002, "learning_rate": 4.718518518518519e-05, "loss": 0.4097, "step": 452 }, { "epoch": 0.151, "grad_norm": 2.3666672706604004, "learning_rate": 4.716666666666667e-05, "loss": 0.4662, "step": 453 }, { "epoch": 0.15133333333333332, "grad_norm": 1.654421091079712, "learning_rate": 4.714814814814815e-05, "loss": 0.3372, "step": 454 }, { "epoch": 0.15166666666666667, "grad_norm": 1.6819572448730469, "learning_rate": 4.712962962962963e-05, "loss": 0.435, "step": 455 }, { "epoch": 0.152, "grad_norm": 1.5675102472305298, "learning_rate": 4.711111111111111e-05, "loss": 0.4012, "step": 456 }, { "epoch": 0.15233333333333332, "grad_norm": 1.4625293016433716, "learning_rate": 4.709259259259259e-05, "loss": 0.3838, "step": 457 }, { "epoch": 0.15266666666666667, "grad_norm": 1.520033836364746, "learning_rate": 4.7074074074074074e-05, "loss": 0.366, "step": 458 }, { "epoch": 0.153, "grad_norm": 1.2604353427886963, "learning_rate": 4.7055555555555555e-05, "loss": 0.2488, "step": 459 }, { "epoch": 0.15333333333333332, "grad_norm": 1.4598571062088013, "learning_rate": 4.703703703703704e-05, "loss": 0.3245, "step": 460 }, { "epoch": 0.15366666666666667, "grad_norm": 1.609896183013916, "learning_rate": 4.701851851851852e-05, "loss": 0.3609, "step": 461 }, { "epoch": 0.154, "grad_norm": 1.4688657522201538, "learning_rate": 4.7e-05, "loss": 0.3607, "step": 462 }, { "epoch": 0.15433333333333332, "grad_norm": 1.243186354637146, "learning_rate": 4.6981481481481485e-05, "loss": 0.3003, "step": 463 }, { "epoch": 0.15466666666666667, "grad_norm": 1.4108368158340454, "learning_rate": 4.6962962962962966e-05, "loss": 0.3519, "step": 464 }, { "epoch": 0.155, "grad_norm": 7.958014965057373, "learning_rate": 4.6944444444444446e-05, "loss": 0.3188, "step": 465 }, { "epoch": 0.15533333333333332, "grad_norm": 1.6169638633728027, "learning_rate": 4.692592592592593e-05, "loss": 0.3719, "step": 466 }, { "epoch": 0.15566666666666668, "grad_norm": 1.5462708473205566, "learning_rate": 4.690740740740741e-05, "loss": 0.3421, "step": 467 }, { "epoch": 0.156, "grad_norm": 1.8130849599838257, "learning_rate": 4.6888888888888895e-05, "loss": 0.394, "step": 468 }, { "epoch": 0.15633333333333332, "grad_norm": 1.4210973978042603, "learning_rate": 4.687037037037037e-05, "loss": 0.4152, "step": 469 }, { "epoch": 0.15666666666666668, "grad_norm": 1.6681641340255737, "learning_rate": 4.685185185185185e-05, "loss": 0.422, "step": 470 }, { "epoch": 0.157, "grad_norm": 1.3365411758422852, "learning_rate": 4.683333333333334e-05, "loss": 0.3282, "step": 471 }, { "epoch": 0.15733333333333333, "grad_norm": 1.6300495862960815, "learning_rate": 4.681481481481482e-05, "loss": 0.3325, "step": 472 }, { "epoch": 0.15766666666666668, "grad_norm": 1.8083395957946777, "learning_rate": 4.67962962962963e-05, "loss": 0.4878, "step": 473 }, { "epoch": 0.158, "grad_norm": 2.474660634994507, "learning_rate": 4.677777777777778e-05, "loss": 0.3831, "step": 474 }, { "epoch": 0.15833333333333333, "grad_norm": 1.2663764953613281, "learning_rate": 4.675925925925926e-05, "loss": 0.2903, "step": 475 }, { "epoch": 0.15866666666666668, "grad_norm": 1.615507960319519, "learning_rate": 4.674074074074074e-05, "loss": 0.4286, "step": 476 }, { "epoch": 0.159, "grad_norm": 1.31894850730896, "learning_rate": 4.672222222222222e-05, "loss": 0.3779, "step": 477 }, { "epoch": 0.15933333333333333, "grad_norm": 1.6353154182434082, "learning_rate": 4.67037037037037e-05, "loss": 0.4092, "step": 478 }, { "epoch": 0.15966666666666668, "grad_norm": 1.4601986408233643, "learning_rate": 4.6685185185185184e-05, "loss": 0.3107, "step": 479 }, { "epoch": 0.16, "grad_norm": 1.5335056781768799, "learning_rate": 4.666666666666667e-05, "loss": 0.3519, "step": 480 }, { "epoch": 0.16033333333333333, "grad_norm": 1.3570960760116577, "learning_rate": 4.664814814814815e-05, "loss": 0.3462, "step": 481 }, { "epoch": 0.16066666666666668, "grad_norm": 1.6119030714035034, "learning_rate": 4.662962962962963e-05, "loss": 0.4134, "step": 482 }, { "epoch": 0.161, "grad_norm": 1.5040596723556519, "learning_rate": 4.6611111111111114e-05, "loss": 0.3403, "step": 483 }, { "epoch": 0.16133333333333333, "grad_norm": 1.6691622734069824, "learning_rate": 4.6592592592592595e-05, "loss": 0.3845, "step": 484 }, { "epoch": 0.16166666666666665, "grad_norm": 1.212578296661377, "learning_rate": 4.6574074074074076e-05, "loss": 0.295, "step": 485 }, { "epoch": 0.162, "grad_norm": 1.5998772382736206, "learning_rate": 4.6555555555555556e-05, "loss": 0.3452, "step": 486 }, { "epoch": 0.16233333333333333, "grad_norm": 1.5955681800842285, "learning_rate": 4.653703703703704e-05, "loss": 0.3911, "step": 487 }, { "epoch": 0.16266666666666665, "grad_norm": 1.948377013206482, "learning_rate": 4.6518518518518525e-05, "loss": 0.4885, "step": 488 }, { "epoch": 0.163, "grad_norm": 1.562285304069519, "learning_rate": 4.6500000000000005e-05, "loss": 0.354, "step": 489 }, { "epoch": 0.16333333333333333, "grad_norm": 1.3308295011520386, "learning_rate": 4.648148148148148e-05, "loss": 0.3341, "step": 490 }, { "epoch": 0.16366666666666665, "grad_norm": 1.470138430595398, "learning_rate": 4.646296296296297e-05, "loss": 0.3751, "step": 491 }, { "epoch": 0.164, "grad_norm": 1.4458322525024414, "learning_rate": 4.644444444444445e-05, "loss": 0.3457, "step": 492 }, { "epoch": 0.16433333333333333, "grad_norm": 1.457342505455017, "learning_rate": 4.642592592592593e-05, "loss": 0.3596, "step": 493 }, { "epoch": 0.16466666666666666, "grad_norm": 1.5412640571594238, "learning_rate": 4.640740740740741e-05, "loss": 0.3418, "step": 494 }, { "epoch": 0.165, "grad_norm": 1.472030520439148, "learning_rate": 4.638888888888889e-05, "loss": 0.3425, "step": 495 }, { "epoch": 0.16533333333333333, "grad_norm": 1.6183019876480103, "learning_rate": 4.637037037037038e-05, "loss": 0.3352, "step": 496 }, { "epoch": 0.16566666666666666, "grad_norm": 2.019596815109253, "learning_rate": 4.635185185185185e-05, "loss": 0.3578, "step": 497 }, { "epoch": 0.166, "grad_norm": 1.3924508094787598, "learning_rate": 4.633333333333333e-05, "loss": 0.3676, "step": 498 }, { "epoch": 0.16633333333333333, "grad_norm": 1.27180016040802, "learning_rate": 4.631481481481481e-05, "loss": 0.3179, "step": 499 }, { "epoch": 0.16666666666666666, "grad_norm": 1.225780725479126, "learning_rate": 4.62962962962963e-05, "loss": 0.3431, "step": 500 }, { "epoch": 0.167, "grad_norm": 1.793016791343689, "learning_rate": 4.627777777777778e-05, "loss": 0.4867, "step": 501 }, { "epoch": 0.16733333333333333, "grad_norm": 1.5788778066635132, "learning_rate": 4.625925925925926e-05, "loss": 0.3276, "step": 502 }, { "epoch": 0.16766666666666666, "grad_norm": 1.751562476158142, "learning_rate": 4.624074074074074e-05, "loss": 0.4539, "step": 503 }, { "epoch": 0.168, "grad_norm": 1.431057333946228, "learning_rate": 4.6222222222222224e-05, "loss": 0.3713, "step": 504 }, { "epoch": 0.16833333333333333, "grad_norm": 1.3699835538864136, "learning_rate": 4.6203703703703705e-05, "loss": 0.3447, "step": 505 }, { "epoch": 0.16866666666666666, "grad_norm": 1.5171544551849365, "learning_rate": 4.6185185185185185e-05, "loss": 0.2956, "step": 506 }, { "epoch": 0.169, "grad_norm": 1.7429660558700562, "learning_rate": 4.6166666666666666e-05, "loss": 0.3909, "step": 507 }, { "epoch": 0.16933333333333334, "grad_norm": 1.7300422191619873, "learning_rate": 4.6148148148148154e-05, "loss": 0.4494, "step": 508 }, { "epoch": 0.16966666666666666, "grad_norm": 1.264761209487915, "learning_rate": 4.6129629629629635e-05, "loss": 0.2988, "step": 509 }, { "epoch": 0.17, "grad_norm": 1.6348915100097656, "learning_rate": 4.6111111111111115e-05, "loss": 0.3799, "step": 510 }, { "epoch": 0.17033333333333334, "grad_norm": 1.5455849170684814, "learning_rate": 4.6092592592592596e-05, "loss": 0.3082, "step": 511 }, { "epoch": 0.17066666666666666, "grad_norm": 1.5002715587615967, "learning_rate": 4.607407407407408e-05, "loss": 0.388, "step": 512 }, { "epoch": 0.171, "grad_norm": 1.3733866214752197, "learning_rate": 4.605555555555556e-05, "loss": 0.2715, "step": 513 }, { "epoch": 0.17133333333333334, "grad_norm": 1.5897667407989502, "learning_rate": 4.603703703703704e-05, "loss": 0.4274, "step": 514 }, { "epoch": 0.17166666666666666, "grad_norm": 1.4934463500976562, "learning_rate": 4.601851851851852e-05, "loss": 0.3477, "step": 515 }, { "epoch": 0.172, "grad_norm": 1.6661343574523926, "learning_rate": 4.600000000000001e-05, "loss": 0.4138, "step": 516 }, { "epoch": 0.17233333333333334, "grad_norm": 1.3750795125961304, "learning_rate": 4.598148148148148e-05, "loss": 0.3704, "step": 517 }, { "epoch": 0.17266666666666666, "grad_norm": 1.6565532684326172, "learning_rate": 4.596296296296296e-05, "loss": 0.4498, "step": 518 }, { "epoch": 0.173, "grad_norm": 5.795270919799805, "learning_rate": 4.594444444444444e-05, "loss": 0.4515, "step": 519 }, { "epoch": 0.17333333333333334, "grad_norm": 17.75341033935547, "learning_rate": 4.592592592592593e-05, "loss": 0.3419, "step": 520 }, { "epoch": 0.17366666666666666, "grad_norm": 1.2986958026885986, "learning_rate": 4.590740740740741e-05, "loss": 0.3258, "step": 521 }, { "epoch": 0.174, "grad_norm": 1.4572504758834839, "learning_rate": 4.588888888888889e-05, "loss": 0.3619, "step": 522 }, { "epoch": 0.17433333333333334, "grad_norm": 1.3477206230163574, "learning_rate": 4.587037037037037e-05, "loss": 0.3474, "step": 523 }, { "epoch": 0.17466666666666666, "grad_norm": 1.4138680696487427, "learning_rate": 4.585185185185185e-05, "loss": 0.4011, "step": 524 }, { "epoch": 0.175, "grad_norm": 1.817885398864746, "learning_rate": 4.5833333333333334e-05, "loss": 0.3976, "step": 525 }, { "epoch": 0.17533333333333334, "grad_norm": 2.031548023223877, "learning_rate": 4.5814814814814815e-05, "loss": 0.3649, "step": 526 }, { "epoch": 0.17566666666666667, "grad_norm": 1.7162131071090698, "learning_rate": 4.5796296296296295e-05, "loss": 0.3296, "step": 527 }, { "epoch": 0.176, "grad_norm": 1.916621446609497, "learning_rate": 4.577777777777778e-05, "loss": 0.3943, "step": 528 }, { "epoch": 0.17633333333333334, "grad_norm": 1.6090394258499146, "learning_rate": 4.5759259259259264e-05, "loss": 0.3501, "step": 529 }, { "epoch": 0.17666666666666667, "grad_norm": 1.6718857288360596, "learning_rate": 4.5740740740740745e-05, "loss": 0.4241, "step": 530 }, { "epoch": 0.177, "grad_norm": 1.7291890382766724, "learning_rate": 4.572222222222222e-05, "loss": 0.4181, "step": 531 }, { "epoch": 0.17733333333333334, "grad_norm": 1.506325125694275, "learning_rate": 4.5703703703703706e-05, "loss": 0.3724, "step": 532 }, { "epoch": 0.17766666666666667, "grad_norm": 1.6740254163742065, "learning_rate": 4.568518518518519e-05, "loss": 0.4633, "step": 533 }, { "epoch": 0.178, "grad_norm": 1.4528924226760864, "learning_rate": 4.566666666666667e-05, "loss": 0.3473, "step": 534 }, { "epoch": 0.17833333333333334, "grad_norm": 1.6197060346603394, "learning_rate": 4.564814814814815e-05, "loss": 0.4072, "step": 535 }, { "epoch": 0.17866666666666667, "grad_norm": 1.7965662479400635, "learning_rate": 4.5629629629629636e-05, "loss": 0.4327, "step": 536 }, { "epoch": 0.179, "grad_norm": 1.403766393661499, "learning_rate": 4.561111111111112e-05, "loss": 0.3179, "step": 537 }, { "epoch": 0.17933333333333334, "grad_norm": 1.4845155477523804, "learning_rate": 4.559259259259259e-05, "loss": 0.391, "step": 538 }, { "epoch": 0.17966666666666667, "grad_norm": 1.5367820262908936, "learning_rate": 4.557407407407407e-05, "loss": 0.3359, "step": 539 }, { "epoch": 0.18, "grad_norm": 1.4138699769973755, "learning_rate": 4.555555555555556e-05, "loss": 0.3368, "step": 540 }, { "epoch": 0.18033333333333335, "grad_norm": 1.6389492750167847, "learning_rate": 4.553703703703704e-05, "loss": 0.3956, "step": 541 }, { "epoch": 0.18066666666666667, "grad_norm": 1.5073649883270264, "learning_rate": 4.551851851851852e-05, "loss": 0.4075, "step": 542 }, { "epoch": 0.181, "grad_norm": 1.344222068786621, "learning_rate": 4.55e-05, "loss": 0.3281, "step": 543 }, { "epoch": 0.18133333333333335, "grad_norm": 1.4959862232208252, "learning_rate": 4.548148148148149e-05, "loss": 0.3353, "step": 544 }, { "epoch": 0.18166666666666667, "grad_norm": 1.5007504224777222, "learning_rate": 4.546296296296296e-05, "loss": 0.4133, "step": 545 }, { "epoch": 0.182, "grad_norm": 1.6905388832092285, "learning_rate": 4.5444444444444444e-05, "loss": 0.4557, "step": 546 }, { "epoch": 0.18233333333333332, "grad_norm": 1.3356764316558838, "learning_rate": 4.5425925925925925e-05, "loss": 0.3737, "step": 547 }, { "epoch": 0.18266666666666667, "grad_norm": 1.8128896951675415, "learning_rate": 4.540740740740741e-05, "loss": 0.3902, "step": 548 }, { "epoch": 0.183, "grad_norm": 1.5806947946548462, "learning_rate": 4.538888888888889e-05, "loss": 0.3861, "step": 549 }, { "epoch": 0.18333333333333332, "grad_norm": 1.814087986946106, "learning_rate": 4.5370370370370374e-05, "loss": 0.4172, "step": 550 }, { "epoch": 0.18366666666666667, "grad_norm": 1.5783967971801758, "learning_rate": 4.5351851851851854e-05, "loss": 0.4304, "step": 551 }, { "epoch": 0.184, "grad_norm": 1.3484410047531128, "learning_rate": 4.5333333333333335e-05, "loss": 0.3362, "step": 552 }, { "epoch": 0.18433333333333332, "grad_norm": 2.0969557762145996, "learning_rate": 4.5314814814814816e-05, "loss": 0.4142, "step": 553 }, { "epoch": 0.18466666666666667, "grad_norm": 3.6122617721557617, "learning_rate": 4.52962962962963e-05, "loss": 0.2642, "step": 554 }, { "epoch": 0.185, "grad_norm": 1.289080262184143, "learning_rate": 4.527777777777778e-05, "loss": 0.3149, "step": 555 }, { "epoch": 0.18533333333333332, "grad_norm": 1.6373666524887085, "learning_rate": 4.5259259259259265e-05, "loss": 0.3945, "step": 556 }, { "epoch": 0.18566666666666667, "grad_norm": 1.1834471225738525, "learning_rate": 4.5240740740740746e-05, "loss": 0.3104, "step": 557 }, { "epoch": 0.186, "grad_norm": 1.290870189666748, "learning_rate": 4.522222222222223e-05, "loss": 0.371, "step": 558 }, { "epoch": 0.18633333333333332, "grad_norm": 1.371110200881958, "learning_rate": 4.52037037037037e-05, "loss": 0.3973, "step": 559 }, { "epoch": 0.18666666666666668, "grad_norm": 1.36427903175354, "learning_rate": 4.518518518518519e-05, "loss": 0.3147, "step": 560 }, { "epoch": 0.187, "grad_norm": 1.3381069898605347, "learning_rate": 4.516666666666667e-05, "loss": 0.3474, "step": 561 }, { "epoch": 0.18733333333333332, "grad_norm": 1.4656195640563965, "learning_rate": 4.514814814814815e-05, "loss": 0.4091, "step": 562 }, { "epoch": 0.18766666666666668, "grad_norm": 1.6770439147949219, "learning_rate": 4.512962962962963e-05, "loss": 0.2991, "step": 563 }, { "epoch": 0.188, "grad_norm": 1.3697926998138428, "learning_rate": 4.511111111111112e-05, "loss": 0.3267, "step": 564 }, { "epoch": 0.18833333333333332, "grad_norm": 1.4271165132522583, "learning_rate": 4.50925925925926e-05, "loss": 0.3689, "step": 565 }, { "epoch": 0.18866666666666668, "grad_norm": 1.3551369905471802, "learning_rate": 4.507407407407407e-05, "loss": 0.3604, "step": 566 }, { "epoch": 0.189, "grad_norm": 1.5275707244873047, "learning_rate": 4.5055555555555554e-05, "loss": 0.3704, "step": 567 }, { "epoch": 0.18933333333333333, "grad_norm": 1.5867068767547607, "learning_rate": 4.503703703703704e-05, "loss": 0.3803, "step": 568 }, { "epoch": 0.18966666666666668, "grad_norm": 1.7391343116760254, "learning_rate": 4.501851851851852e-05, "loss": 0.4101, "step": 569 }, { "epoch": 0.19, "grad_norm": 1.7914539575576782, "learning_rate": 4.5e-05, "loss": 0.4465, "step": 570 }, { "epoch": 0.19033333333333333, "grad_norm": 1.4277679920196533, "learning_rate": 4.4981481481481484e-05, "loss": 0.376, "step": 571 }, { "epoch": 0.19066666666666668, "grad_norm": 1.35780668258667, "learning_rate": 4.496296296296297e-05, "loss": 0.3722, "step": 572 }, { "epoch": 0.191, "grad_norm": 1.4040939807891846, "learning_rate": 4.4944444444444445e-05, "loss": 0.3845, "step": 573 }, { "epoch": 0.19133333333333333, "grad_norm": 1.620442271232605, "learning_rate": 4.4925925925925926e-05, "loss": 0.394, "step": 574 }, { "epoch": 0.19166666666666668, "grad_norm": 1.5137332677841187, "learning_rate": 4.490740740740741e-05, "loss": 0.4132, "step": 575 }, { "epoch": 0.192, "grad_norm": 1.3737564086914062, "learning_rate": 4.4888888888888894e-05, "loss": 0.3041, "step": 576 }, { "epoch": 0.19233333333333333, "grad_norm": 1.5032317638397217, "learning_rate": 4.4870370370370375e-05, "loss": 0.3448, "step": 577 }, { "epoch": 0.19266666666666668, "grad_norm": 1.415264368057251, "learning_rate": 4.4851851851851856e-05, "loss": 0.3625, "step": 578 }, { "epoch": 0.193, "grad_norm": 1.4844282865524292, "learning_rate": 4.483333333333333e-05, "loss": 0.3893, "step": 579 }, { "epoch": 0.19333333333333333, "grad_norm": 1.3375792503356934, "learning_rate": 4.481481481481482e-05, "loss": 0.279, "step": 580 }, { "epoch": 0.19366666666666665, "grad_norm": 1.514036774635315, "learning_rate": 4.47962962962963e-05, "loss": 0.3956, "step": 581 }, { "epoch": 0.194, "grad_norm": 1.3582748174667358, "learning_rate": 4.477777777777778e-05, "loss": 0.3355, "step": 582 }, { "epoch": 0.19433333333333333, "grad_norm": 1.6228889226913452, "learning_rate": 4.475925925925926e-05, "loss": 0.3537, "step": 583 }, { "epoch": 0.19466666666666665, "grad_norm": 1.5080145597457886, "learning_rate": 4.474074074074075e-05, "loss": 0.4108, "step": 584 }, { "epoch": 0.195, "grad_norm": 1.4736909866333008, "learning_rate": 4.472222222222223e-05, "loss": 0.3178, "step": 585 }, { "epoch": 0.19533333333333333, "grad_norm": 1.4306914806365967, "learning_rate": 4.47037037037037e-05, "loss": 0.3304, "step": 586 }, { "epoch": 0.19566666666666666, "grad_norm": 1.4883320331573486, "learning_rate": 4.468518518518518e-05, "loss": 0.4074, "step": 587 }, { "epoch": 0.196, "grad_norm": 1.4108233451843262, "learning_rate": 4.466666666666667e-05, "loss": 0.3267, "step": 588 }, { "epoch": 0.19633333333333333, "grad_norm": 2.0411906242370605, "learning_rate": 4.464814814814815e-05, "loss": 0.4153, "step": 589 }, { "epoch": 0.19666666666666666, "grad_norm": 1.8355998992919922, "learning_rate": 4.462962962962963e-05, "loss": 0.3402, "step": 590 }, { "epoch": 0.197, "grad_norm": 1.458619475364685, "learning_rate": 4.461111111111111e-05, "loss": 0.4166, "step": 591 }, { "epoch": 0.19733333333333333, "grad_norm": 1.4741239547729492, "learning_rate": 4.4592592592592594e-05, "loss": 0.3389, "step": 592 }, { "epoch": 0.19766666666666666, "grad_norm": 1.6767423152923584, "learning_rate": 4.4574074074074074e-05, "loss": 0.3909, "step": 593 }, { "epoch": 0.198, "grad_norm": 1.665139079093933, "learning_rate": 4.4555555555555555e-05, "loss": 0.3458, "step": 594 }, { "epoch": 0.19833333333333333, "grad_norm": 1.4744354486465454, "learning_rate": 4.4537037037037036e-05, "loss": 0.3492, "step": 595 }, { "epoch": 0.19866666666666666, "grad_norm": 1.5642839670181274, "learning_rate": 4.4518518518518523e-05, "loss": 0.3446, "step": 596 }, { "epoch": 0.199, "grad_norm": 1.3232685327529907, "learning_rate": 4.4500000000000004e-05, "loss": 0.3315, "step": 597 }, { "epoch": 0.19933333333333333, "grad_norm": 1.5989969968795776, "learning_rate": 4.4481481481481485e-05, "loss": 0.328, "step": 598 }, { "epoch": 0.19966666666666666, "grad_norm": 1.5295178890228271, "learning_rate": 4.4462962962962966e-05, "loss": 0.3927, "step": 599 }, { "epoch": 0.2, "grad_norm": 1.6364021301269531, "learning_rate": 4.4444444444444447e-05, "loss": 0.4419, "step": 600 }, { "epoch": 0.20033333333333334, "grad_norm": 1.3658100366592407, "learning_rate": 4.442592592592593e-05, "loss": 0.3703, "step": 601 }, { "epoch": 0.20066666666666666, "grad_norm": 1.45023512840271, "learning_rate": 4.440740740740741e-05, "loss": 0.3768, "step": 602 }, { "epoch": 0.201, "grad_norm": 1.24233877658844, "learning_rate": 4.438888888888889e-05, "loss": 0.2976, "step": 603 }, { "epoch": 0.20133333333333334, "grad_norm": 1.4358621835708618, "learning_rate": 4.4370370370370376e-05, "loss": 0.3407, "step": 604 }, { "epoch": 0.20166666666666666, "grad_norm": 1.2155948877334595, "learning_rate": 4.435185185185186e-05, "loss": 0.3248, "step": 605 }, { "epoch": 0.202, "grad_norm": 1.52995765209198, "learning_rate": 4.433333333333334e-05, "loss": 0.383, "step": 606 }, { "epoch": 0.20233333333333334, "grad_norm": 1.781554937362671, "learning_rate": 4.431481481481481e-05, "loss": 0.4049, "step": 607 }, { "epoch": 0.20266666666666666, "grad_norm": 1.6566193103790283, "learning_rate": 4.42962962962963e-05, "loss": 0.4091, "step": 608 }, { "epoch": 0.203, "grad_norm": 1.609633445739746, "learning_rate": 4.427777777777778e-05, "loss": 0.3276, "step": 609 }, { "epoch": 0.20333333333333334, "grad_norm": 2.1290884017944336, "learning_rate": 4.425925925925926e-05, "loss": 0.3703, "step": 610 }, { "epoch": 0.20366666666666666, "grad_norm": 1.4883259534835815, "learning_rate": 4.424074074074074e-05, "loss": 0.3417, "step": 611 }, { "epoch": 0.204, "grad_norm": 1.6269731521606445, "learning_rate": 4.422222222222222e-05, "loss": 0.4931, "step": 612 }, { "epoch": 0.20433333333333334, "grad_norm": 1.2305165529251099, "learning_rate": 4.420370370370371e-05, "loss": 0.3454, "step": 613 }, { "epoch": 0.20466666666666666, "grad_norm": 1.3280975818634033, "learning_rate": 4.4185185185185184e-05, "loss": 0.3098, "step": 614 }, { "epoch": 0.205, "grad_norm": 1.6180787086486816, "learning_rate": 4.4166666666666665e-05, "loss": 0.3854, "step": 615 }, { "epoch": 0.20533333333333334, "grad_norm": 1.2871187925338745, "learning_rate": 4.414814814814815e-05, "loss": 0.3057, "step": 616 }, { "epoch": 0.20566666666666666, "grad_norm": 1.5202758312225342, "learning_rate": 4.4129629629629633e-05, "loss": 0.3825, "step": 617 }, { "epoch": 0.206, "grad_norm": 1.2970737218856812, "learning_rate": 4.4111111111111114e-05, "loss": 0.2642, "step": 618 }, { "epoch": 0.20633333333333334, "grad_norm": 1.381256341934204, "learning_rate": 4.4092592592592595e-05, "loss": 0.3454, "step": 619 }, { "epoch": 0.20666666666666667, "grad_norm": 1.5311311483383179, "learning_rate": 4.4074074074074076e-05, "loss": 0.3699, "step": 620 }, { "epoch": 0.207, "grad_norm": 1.3776994943618774, "learning_rate": 4.4055555555555557e-05, "loss": 0.3086, "step": 621 }, { "epoch": 0.20733333333333334, "grad_norm": 1.3250863552093506, "learning_rate": 4.403703703703704e-05, "loss": 0.3627, "step": 622 }, { "epoch": 0.20766666666666667, "grad_norm": 1.248021125793457, "learning_rate": 4.401851851851852e-05, "loss": 0.343, "step": 623 }, { "epoch": 0.208, "grad_norm": 1.4723520278930664, "learning_rate": 4.4000000000000006e-05, "loss": 0.336, "step": 624 }, { "epoch": 0.20833333333333334, "grad_norm": 1.3077497482299805, "learning_rate": 4.3981481481481486e-05, "loss": 0.3276, "step": 625 }, { "epoch": 0.20866666666666667, "grad_norm": 1.5073587894439697, "learning_rate": 4.396296296296297e-05, "loss": 0.3799, "step": 626 }, { "epoch": 0.209, "grad_norm": 1.3228164911270142, "learning_rate": 4.394444444444445e-05, "loss": 0.3856, "step": 627 }, { "epoch": 0.20933333333333334, "grad_norm": 1.4944725036621094, "learning_rate": 4.392592592592593e-05, "loss": 0.419, "step": 628 }, { "epoch": 0.20966666666666667, "grad_norm": 1.1977301836013794, "learning_rate": 4.390740740740741e-05, "loss": 0.2991, "step": 629 }, { "epoch": 0.21, "grad_norm": 1.3055118322372437, "learning_rate": 4.388888888888889e-05, "loss": 0.3119, "step": 630 }, { "epoch": 0.21033333333333334, "grad_norm": 1.2189877033233643, "learning_rate": 4.387037037037037e-05, "loss": 0.2759, "step": 631 }, { "epoch": 0.21066666666666667, "grad_norm": 1.5441529750823975, "learning_rate": 4.385185185185185e-05, "loss": 0.4359, "step": 632 }, { "epoch": 0.211, "grad_norm": 1.2876906394958496, "learning_rate": 4.383333333333334e-05, "loss": 0.3284, "step": 633 }, { "epoch": 0.21133333333333335, "grad_norm": 1.434372067451477, "learning_rate": 4.381481481481482e-05, "loss": 0.3375, "step": 634 }, { "epoch": 0.21166666666666667, "grad_norm": 1.7254409790039062, "learning_rate": 4.3796296296296294e-05, "loss": 0.3896, "step": 635 }, { "epoch": 0.212, "grad_norm": 1.5128728151321411, "learning_rate": 4.377777777777778e-05, "loss": 0.3626, "step": 636 }, { "epoch": 0.21233333333333335, "grad_norm": 1.5368988513946533, "learning_rate": 4.375925925925926e-05, "loss": 0.4239, "step": 637 }, { "epoch": 0.21266666666666667, "grad_norm": 1.424720048904419, "learning_rate": 4.374074074074074e-05, "loss": 0.3389, "step": 638 }, { "epoch": 0.213, "grad_norm": 1.552229881286621, "learning_rate": 4.3722222222222224e-05, "loss": 0.3948, "step": 639 }, { "epoch": 0.21333333333333335, "grad_norm": 1.3225212097167969, "learning_rate": 4.3703703703703705e-05, "loss": 0.3229, "step": 640 }, { "epoch": 0.21366666666666667, "grad_norm": 1.5340272188186646, "learning_rate": 4.3685185185185186e-05, "loss": 0.353, "step": 641 }, { "epoch": 0.214, "grad_norm": 1.5016579627990723, "learning_rate": 4.3666666666666666e-05, "loss": 0.3796, "step": 642 }, { "epoch": 0.21433333333333332, "grad_norm": 1.4141838550567627, "learning_rate": 4.364814814814815e-05, "loss": 0.3579, "step": 643 }, { "epoch": 0.21466666666666667, "grad_norm": 1.5683951377868652, "learning_rate": 4.3629629629629635e-05, "loss": 0.3968, "step": 644 }, { "epoch": 0.215, "grad_norm": 1.6390215158462524, "learning_rate": 4.3611111111111116e-05, "loss": 0.3948, "step": 645 }, { "epoch": 0.21533333333333332, "grad_norm": 1.4215831756591797, "learning_rate": 4.3592592592592596e-05, "loss": 0.3268, "step": 646 }, { "epoch": 0.21566666666666667, "grad_norm": 1.5521069765090942, "learning_rate": 4.357407407407408e-05, "loss": 0.37, "step": 647 }, { "epoch": 0.216, "grad_norm": 1.6645965576171875, "learning_rate": 4.355555555555556e-05, "loss": 0.3604, "step": 648 }, { "epoch": 0.21633333333333332, "grad_norm": 2.1203622817993164, "learning_rate": 4.353703703703704e-05, "loss": 0.2886, "step": 649 }, { "epoch": 0.21666666666666667, "grad_norm": 1.6731735467910767, "learning_rate": 4.351851851851852e-05, "loss": 0.4659, "step": 650 }, { "epoch": 0.217, "grad_norm": 1.7265139818191528, "learning_rate": 4.35e-05, "loss": 0.4333, "step": 651 }, { "epoch": 0.21733333333333332, "grad_norm": 1.688616156578064, "learning_rate": 4.348148148148148e-05, "loss": 0.4951, "step": 652 }, { "epoch": 0.21766666666666667, "grad_norm": 1.463356375694275, "learning_rate": 4.346296296296297e-05, "loss": 0.4063, "step": 653 }, { "epoch": 0.218, "grad_norm": 1.7236669063568115, "learning_rate": 4.344444444444445e-05, "loss": 0.361, "step": 654 }, { "epoch": 0.21833333333333332, "grad_norm": 1.686489462852478, "learning_rate": 4.342592592592592e-05, "loss": 0.3861, "step": 655 }, { "epoch": 0.21866666666666668, "grad_norm": 1.5238269567489624, "learning_rate": 4.340740740740741e-05, "loss": 0.4135, "step": 656 }, { "epoch": 0.219, "grad_norm": 1.6874879598617554, "learning_rate": 4.338888888888889e-05, "loss": 0.3647, "step": 657 }, { "epoch": 0.21933333333333332, "grad_norm": 2.1948039531707764, "learning_rate": 4.337037037037037e-05, "loss": 0.5016, "step": 658 }, { "epoch": 0.21966666666666668, "grad_norm": 1.5895353555679321, "learning_rate": 4.335185185185185e-05, "loss": 0.446, "step": 659 }, { "epoch": 0.22, "grad_norm": 1.27193284034729, "learning_rate": 4.3333333333333334e-05, "loss": 0.3792, "step": 660 }, { "epoch": 0.22033333333333333, "grad_norm": 1.3627662658691406, "learning_rate": 4.331481481481482e-05, "loss": 0.3545, "step": 661 }, { "epoch": 0.22066666666666668, "grad_norm": 1.4695639610290527, "learning_rate": 4.3296296296296296e-05, "loss": 0.3532, "step": 662 }, { "epoch": 0.221, "grad_norm": 1.4878876209259033, "learning_rate": 4.3277777777777776e-05, "loss": 0.3545, "step": 663 }, { "epoch": 0.22133333333333333, "grad_norm": 3.1272101402282715, "learning_rate": 4.325925925925926e-05, "loss": 0.4299, "step": 664 }, { "epoch": 0.22166666666666668, "grad_norm": 1.2898375988006592, "learning_rate": 4.3240740740740745e-05, "loss": 0.3351, "step": 665 }, { "epoch": 0.222, "grad_norm": 1.2541146278381348, "learning_rate": 4.3222222222222226e-05, "loss": 0.3142, "step": 666 }, { "epoch": 0.22233333333333333, "grad_norm": 1.3727818727493286, "learning_rate": 4.3203703703703706e-05, "loss": 0.3085, "step": 667 }, { "epoch": 0.22266666666666668, "grad_norm": 1.27913236618042, "learning_rate": 4.318518518518519e-05, "loss": 0.309, "step": 668 }, { "epoch": 0.223, "grad_norm": 2.137416124343872, "learning_rate": 4.316666666666667e-05, "loss": 0.4128, "step": 669 }, { "epoch": 0.22333333333333333, "grad_norm": 1.9899588823318481, "learning_rate": 4.314814814814815e-05, "loss": 0.4631, "step": 670 }, { "epoch": 0.22366666666666668, "grad_norm": 1.641781210899353, "learning_rate": 4.312962962962963e-05, "loss": 0.3815, "step": 671 }, { "epoch": 0.224, "grad_norm": 1.4118577241897583, "learning_rate": 4.311111111111111e-05, "loss": 0.3724, "step": 672 }, { "epoch": 0.22433333333333333, "grad_norm": 1.9290391206741333, "learning_rate": 4.30925925925926e-05, "loss": 0.389, "step": 673 }, { "epoch": 0.22466666666666665, "grad_norm": 1.6977159976959229, "learning_rate": 4.307407407407408e-05, "loss": 0.3942, "step": 674 }, { "epoch": 0.225, "grad_norm": 1.6948448419570923, "learning_rate": 4.305555555555556e-05, "loss": 0.4398, "step": 675 }, { "epoch": 0.22533333333333333, "grad_norm": 1.4764955043792725, "learning_rate": 4.303703703703704e-05, "loss": 0.355, "step": 676 }, { "epoch": 0.22566666666666665, "grad_norm": 1.4608086347579956, "learning_rate": 4.301851851851852e-05, "loss": 0.3243, "step": 677 }, { "epoch": 0.226, "grad_norm": 1.37698495388031, "learning_rate": 4.3e-05, "loss": 0.3181, "step": 678 }, { "epoch": 0.22633333333333333, "grad_norm": 1.5875524282455444, "learning_rate": 4.298148148148148e-05, "loss": 0.3883, "step": 679 }, { "epoch": 0.22666666666666666, "grad_norm": 1.4747446775436401, "learning_rate": 4.296296296296296e-05, "loss": 0.3369, "step": 680 }, { "epoch": 0.227, "grad_norm": 1.5260282754898071, "learning_rate": 4.294444444444445e-05, "loss": 0.3964, "step": 681 }, { "epoch": 0.22733333333333333, "grad_norm": 1.233856201171875, "learning_rate": 4.292592592592593e-05, "loss": 0.3045, "step": 682 }, { "epoch": 0.22766666666666666, "grad_norm": 1.457231044769287, "learning_rate": 4.2907407407407406e-05, "loss": 0.3105, "step": 683 }, { "epoch": 0.228, "grad_norm": 1.7392462491989136, "learning_rate": 4.2888888888888886e-05, "loss": 0.4476, "step": 684 }, { "epoch": 0.22833333333333333, "grad_norm": 1.24375581741333, "learning_rate": 4.2870370370370374e-05, "loss": 0.299, "step": 685 }, { "epoch": 0.22866666666666666, "grad_norm": 1.4087038040161133, "learning_rate": 4.2851851851851855e-05, "loss": 0.3275, "step": 686 }, { "epoch": 0.229, "grad_norm": 1.363183617591858, "learning_rate": 4.2833333333333335e-05, "loss": 0.3409, "step": 687 }, { "epoch": 0.22933333333333333, "grad_norm": 1.5464953184127808, "learning_rate": 4.2814814814814816e-05, "loss": 0.4566, "step": 688 }, { "epoch": 0.22966666666666666, "grad_norm": 1.367520809173584, "learning_rate": 4.2796296296296304e-05, "loss": 0.3163, "step": 689 }, { "epoch": 0.23, "grad_norm": 1.3377315998077393, "learning_rate": 4.277777777777778e-05, "loss": 0.3323, "step": 690 }, { "epoch": 0.23033333333333333, "grad_norm": 1.4911507368087769, "learning_rate": 4.275925925925926e-05, "loss": 0.4372, "step": 691 }, { "epoch": 0.23066666666666666, "grad_norm": 1.4127525091171265, "learning_rate": 4.274074074074074e-05, "loss": 0.3921, "step": 692 }, { "epoch": 0.231, "grad_norm": 1.4434276819229126, "learning_rate": 4.272222222222223e-05, "loss": 0.3533, "step": 693 }, { "epoch": 0.23133333333333334, "grad_norm": 1.6668140888214111, "learning_rate": 4.270370370370371e-05, "loss": 0.415, "step": 694 }, { "epoch": 0.23166666666666666, "grad_norm": 1.5912481546401978, "learning_rate": 4.268518518518519e-05, "loss": 0.4325, "step": 695 }, { "epoch": 0.232, "grad_norm": 1.3702155351638794, "learning_rate": 4.266666666666667e-05, "loss": 0.3341, "step": 696 }, { "epoch": 0.23233333333333334, "grad_norm": 1.495927333831787, "learning_rate": 4.264814814814815e-05, "loss": 0.3677, "step": 697 }, { "epoch": 0.23266666666666666, "grad_norm": 1.3089903593063354, "learning_rate": 4.262962962962963e-05, "loss": 0.3699, "step": 698 }, { "epoch": 0.233, "grad_norm": 1.5037627220153809, "learning_rate": 4.261111111111111e-05, "loss": 0.366, "step": 699 }, { "epoch": 0.23333333333333334, "grad_norm": 1.8529783487319946, "learning_rate": 4.259259259259259e-05, "loss": 0.383, "step": 700 }, { "epoch": 0.23366666666666666, "grad_norm": 1.354643702507019, "learning_rate": 4.257407407407408e-05, "loss": 0.327, "step": 701 }, { "epoch": 0.234, "grad_norm": 1.459773063659668, "learning_rate": 4.255555555555556e-05, "loss": 0.4143, "step": 702 }, { "epoch": 0.23433333333333334, "grad_norm": 1.311944603919983, "learning_rate": 4.2537037037037035e-05, "loss": 0.3305, "step": 703 }, { "epoch": 0.23466666666666666, "grad_norm": 1.5787670612335205, "learning_rate": 4.2518518518518515e-05, "loss": 0.3847, "step": 704 }, { "epoch": 0.235, "grad_norm": 1.3665950298309326, "learning_rate": 4.25e-05, "loss": 0.3096, "step": 705 }, { "epoch": 0.23533333333333334, "grad_norm": 1.4410815238952637, "learning_rate": 4.2481481481481484e-05, "loss": 0.3479, "step": 706 }, { "epoch": 0.23566666666666666, "grad_norm": 1.341604471206665, "learning_rate": 4.2462962962962965e-05, "loss": 0.3382, "step": 707 }, { "epoch": 0.236, "grad_norm": 1.330906867980957, "learning_rate": 4.2444444444444445e-05, "loss": 0.3712, "step": 708 }, { "epoch": 0.23633333333333334, "grad_norm": 1.7482727766036987, "learning_rate": 4.242592592592593e-05, "loss": 0.3968, "step": 709 }, { "epoch": 0.23666666666666666, "grad_norm": 1.3532570600509644, "learning_rate": 4.240740740740741e-05, "loss": 0.3501, "step": 710 }, { "epoch": 0.237, "grad_norm": 1.3667083978652954, "learning_rate": 4.238888888888889e-05, "loss": 0.3082, "step": 711 }, { "epoch": 0.23733333333333334, "grad_norm": 1.3330355882644653, "learning_rate": 4.237037037037037e-05, "loss": 0.3146, "step": 712 }, { "epoch": 0.23766666666666666, "grad_norm": 1.444445013999939, "learning_rate": 4.2351851851851856e-05, "loss": 0.3238, "step": 713 }, { "epoch": 0.238, "grad_norm": 1.5447372198104858, "learning_rate": 4.233333333333334e-05, "loss": 0.3801, "step": 714 }, { "epoch": 0.23833333333333334, "grad_norm": 5.3352766036987305, "learning_rate": 4.231481481481482e-05, "loss": 0.3106, "step": 715 }, { "epoch": 0.23866666666666667, "grad_norm": 1.4652068614959717, "learning_rate": 4.22962962962963e-05, "loss": 0.4253, "step": 716 }, { "epoch": 0.239, "grad_norm": 1.372683048248291, "learning_rate": 4.227777777777778e-05, "loss": 0.341, "step": 717 }, { "epoch": 0.23933333333333334, "grad_norm": 1.4031468629837036, "learning_rate": 4.225925925925926e-05, "loss": 0.3569, "step": 718 }, { "epoch": 0.23966666666666667, "grad_norm": 1.560187578201294, "learning_rate": 4.224074074074074e-05, "loss": 0.4454, "step": 719 }, { "epoch": 0.24, "grad_norm": 1.2413548231124878, "learning_rate": 4.222222222222222e-05, "loss": 0.2795, "step": 720 }, { "epoch": 0.24033333333333334, "grad_norm": 1.4622594118118286, "learning_rate": 4.220370370370371e-05, "loss": 0.3461, "step": 721 }, { "epoch": 0.24066666666666667, "grad_norm": 1.2350109815597534, "learning_rate": 4.218518518518519e-05, "loss": 0.2967, "step": 722 }, { "epoch": 0.241, "grad_norm": 1.4473148584365845, "learning_rate": 4.216666666666667e-05, "loss": 0.3649, "step": 723 }, { "epoch": 0.24133333333333334, "grad_norm": 1.241361141204834, "learning_rate": 4.2148148148148145e-05, "loss": 0.3009, "step": 724 }, { "epoch": 0.24166666666666667, "grad_norm": 1.592885971069336, "learning_rate": 4.212962962962963e-05, "loss": 0.5231, "step": 725 }, { "epoch": 0.242, "grad_norm": 1.7029653787612915, "learning_rate": 4.211111111111111e-05, "loss": 0.4607, "step": 726 }, { "epoch": 0.24233333333333335, "grad_norm": 1.3143640756607056, "learning_rate": 4.2092592592592594e-05, "loss": 0.3629, "step": 727 }, { "epoch": 0.24266666666666667, "grad_norm": 1.3931041955947876, "learning_rate": 4.2074074074074075e-05, "loss": 0.3732, "step": 728 }, { "epoch": 0.243, "grad_norm": 1.9713157415390015, "learning_rate": 4.205555555555556e-05, "loss": 0.3102, "step": 729 }, { "epoch": 0.24333333333333335, "grad_norm": 1.3356719017028809, "learning_rate": 4.203703703703704e-05, "loss": 0.3662, "step": 730 }, { "epoch": 0.24366666666666667, "grad_norm": 1.1621766090393066, "learning_rate": 4.201851851851852e-05, "loss": 0.2984, "step": 731 }, { "epoch": 0.244, "grad_norm": 1.4896650314331055, "learning_rate": 4.2e-05, "loss": 0.3934, "step": 732 }, { "epoch": 0.24433333333333335, "grad_norm": 1.5026004314422607, "learning_rate": 4.1981481481481485e-05, "loss": 0.3615, "step": 733 }, { "epoch": 0.24466666666666667, "grad_norm": 1.551168441772461, "learning_rate": 4.1962962962962966e-05, "loss": 0.4221, "step": 734 }, { "epoch": 0.245, "grad_norm": 1.2471182346343994, "learning_rate": 4.194444444444445e-05, "loss": 0.3377, "step": 735 }, { "epoch": 0.24533333333333332, "grad_norm": 1.4817787408828735, "learning_rate": 4.192592592592593e-05, "loss": 0.4391, "step": 736 }, { "epoch": 0.24566666666666667, "grad_norm": 2.5760746002197266, "learning_rate": 4.1907407407407415e-05, "loss": 0.3658, "step": 737 }, { "epoch": 0.246, "grad_norm": 1.2824112176895142, "learning_rate": 4.188888888888889e-05, "loss": 0.3386, "step": 738 }, { "epoch": 0.24633333333333332, "grad_norm": 1.3398665189743042, "learning_rate": 4.187037037037037e-05, "loss": 0.3355, "step": 739 }, { "epoch": 0.24666666666666667, "grad_norm": 2.7086310386657715, "learning_rate": 4.185185185185185e-05, "loss": 0.3924, "step": 740 }, { "epoch": 0.247, "grad_norm": 1.4166991710662842, "learning_rate": 4.183333333333334e-05, "loss": 0.3762, "step": 741 }, { "epoch": 0.24733333333333332, "grad_norm": 1.431833028793335, "learning_rate": 4.181481481481482e-05, "loss": 0.3361, "step": 742 }, { "epoch": 0.24766666666666667, "grad_norm": 1.174967885017395, "learning_rate": 4.17962962962963e-05, "loss": 0.3243, "step": 743 }, { "epoch": 0.248, "grad_norm": 1.613420844078064, "learning_rate": 4.177777777777778e-05, "loss": 0.408, "step": 744 }, { "epoch": 0.24833333333333332, "grad_norm": 1.5392343997955322, "learning_rate": 4.175925925925926e-05, "loss": 0.3402, "step": 745 }, { "epoch": 0.24866666666666667, "grad_norm": 1.2540733814239502, "learning_rate": 4.174074074074074e-05, "loss": 0.3011, "step": 746 }, { "epoch": 0.249, "grad_norm": 1.4702844619750977, "learning_rate": 4.172222222222222e-05, "loss": 0.3892, "step": 747 }, { "epoch": 0.24933333333333332, "grad_norm": 1.2698496580123901, "learning_rate": 4.1703703703703704e-05, "loss": 0.3453, "step": 748 }, { "epoch": 0.24966666666666668, "grad_norm": 1.626663327217102, "learning_rate": 4.168518518518519e-05, "loss": 0.4104, "step": 749 }, { "epoch": 0.25, "grad_norm": 1.4430832862854004, "learning_rate": 4.166666666666667e-05, "loss": 0.36, "step": 750 }, { "epoch": 0.25033333333333335, "grad_norm": 1.447880506515503, "learning_rate": 4.164814814814815e-05, "loss": 0.3233, "step": 751 }, { "epoch": 0.25066666666666665, "grad_norm": 1.1898837089538574, "learning_rate": 4.162962962962963e-05, "loss": 0.2602, "step": 752 }, { "epoch": 0.251, "grad_norm": 1.1591498851776123, "learning_rate": 4.1611111111111114e-05, "loss": 0.281, "step": 753 }, { "epoch": 0.25133333333333335, "grad_norm": 1.4322726726531982, "learning_rate": 4.1592592592592595e-05, "loss": 0.3518, "step": 754 }, { "epoch": 0.25166666666666665, "grad_norm": 1.4136521816253662, "learning_rate": 4.1574074074074076e-05, "loss": 0.315, "step": 755 }, { "epoch": 0.252, "grad_norm": 1.5453389883041382, "learning_rate": 4.155555555555556e-05, "loss": 0.3868, "step": 756 }, { "epoch": 0.25233333333333335, "grad_norm": 1.3190627098083496, "learning_rate": 4.1537037037037044e-05, "loss": 0.3316, "step": 757 }, { "epoch": 0.25266666666666665, "grad_norm": 2.359557628631592, "learning_rate": 4.1518518518518525e-05, "loss": 0.3961, "step": 758 }, { "epoch": 0.253, "grad_norm": 1.434320092201233, "learning_rate": 4.15e-05, "loss": 0.3363, "step": 759 }, { "epoch": 0.25333333333333335, "grad_norm": 1.565841794013977, "learning_rate": 4.148148148148148e-05, "loss": 0.3125, "step": 760 }, { "epoch": 0.25366666666666665, "grad_norm": 1.6295406818389893, "learning_rate": 4.146296296296297e-05, "loss": 0.3873, "step": 761 }, { "epoch": 0.254, "grad_norm": 1.608017086982727, "learning_rate": 4.144444444444445e-05, "loss": 0.3, "step": 762 }, { "epoch": 0.25433333333333336, "grad_norm": 1.3441147804260254, "learning_rate": 4.142592592592593e-05, "loss": 0.3284, "step": 763 }, { "epoch": 0.25466666666666665, "grad_norm": 1.3225023746490479, "learning_rate": 4.140740740740741e-05, "loss": 0.3153, "step": 764 }, { "epoch": 0.255, "grad_norm": 1.2415051460266113, "learning_rate": 4.138888888888889e-05, "loss": 0.3073, "step": 765 }, { "epoch": 0.25533333333333336, "grad_norm": 1.602225422859192, "learning_rate": 4.137037037037037e-05, "loss": 0.3702, "step": 766 }, { "epoch": 0.25566666666666665, "grad_norm": 1.104784369468689, "learning_rate": 4.135185185185185e-05, "loss": 0.2982, "step": 767 }, { "epoch": 0.256, "grad_norm": 1.3152776956558228, "learning_rate": 4.133333333333333e-05, "loss": 0.3094, "step": 768 }, { "epoch": 0.25633333333333336, "grad_norm": 1.5492266416549683, "learning_rate": 4.131481481481482e-05, "loss": 0.3501, "step": 769 }, { "epoch": 0.25666666666666665, "grad_norm": 1.6950374841690063, "learning_rate": 4.12962962962963e-05, "loss": 0.3718, "step": 770 }, { "epoch": 0.257, "grad_norm": 1.4196640253067017, "learning_rate": 4.127777777777778e-05, "loss": 0.3662, "step": 771 }, { "epoch": 0.25733333333333336, "grad_norm": 1.5333114862442017, "learning_rate": 4.1259259259259256e-05, "loss": 0.3552, "step": 772 }, { "epoch": 0.25766666666666665, "grad_norm": 1.3045767545700073, "learning_rate": 4.1240740740740744e-05, "loss": 0.3391, "step": 773 }, { "epoch": 0.258, "grad_norm": 1.4657682180404663, "learning_rate": 4.1222222222222224e-05, "loss": 0.3913, "step": 774 }, { "epoch": 0.25833333333333336, "grad_norm": 1.4723056554794312, "learning_rate": 4.1203703703703705e-05, "loss": 0.4126, "step": 775 }, { "epoch": 0.25866666666666666, "grad_norm": 1.1944102048873901, "learning_rate": 4.1185185185185186e-05, "loss": 0.3006, "step": 776 }, { "epoch": 0.259, "grad_norm": 1.2445132732391357, "learning_rate": 4.116666666666667e-05, "loss": 0.2764, "step": 777 }, { "epoch": 0.25933333333333336, "grad_norm": 1.335518479347229, "learning_rate": 4.1148148148148154e-05, "loss": 0.3098, "step": 778 }, { "epoch": 0.25966666666666666, "grad_norm": 1.24089777469635, "learning_rate": 4.112962962962963e-05, "loss": 0.3322, "step": 779 }, { "epoch": 0.26, "grad_norm": 1.3913564682006836, "learning_rate": 4.111111111111111e-05, "loss": 0.3582, "step": 780 }, { "epoch": 0.26033333333333336, "grad_norm": 1.2934868335723877, "learning_rate": 4.1092592592592597e-05, "loss": 0.3316, "step": 781 }, { "epoch": 0.26066666666666666, "grad_norm": 1.701065182685852, "learning_rate": 4.107407407407408e-05, "loss": 0.4077, "step": 782 }, { "epoch": 0.261, "grad_norm": 1.7660771608352661, "learning_rate": 4.105555555555556e-05, "loss": 0.43, "step": 783 }, { "epoch": 0.2613333333333333, "grad_norm": 1.3048421144485474, "learning_rate": 4.103703703703704e-05, "loss": 0.3636, "step": 784 }, { "epoch": 0.26166666666666666, "grad_norm": 1.1929850578308105, "learning_rate": 4.101851851851852e-05, "loss": 0.3354, "step": 785 }, { "epoch": 0.262, "grad_norm": 1.207017421722412, "learning_rate": 4.1e-05, "loss": 0.3277, "step": 786 }, { "epoch": 0.2623333333333333, "grad_norm": 1.207348108291626, "learning_rate": 4.098148148148148e-05, "loss": 0.2705, "step": 787 }, { "epoch": 0.26266666666666666, "grad_norm": 1.398911476135254, "learning_rate": 4.096296296296296e-05, "loss": 0.4169, "step": 788 }, { "epoch": 0.263, "grad_norm": 1.3541525602340698, "learning_rate": 4.094444444444445e-05, "loss": 0.3539, "step": 789 }, { "epoch": 0.2633333333333333, "grad_norm": 1.4394408464431763, "learning_rate": 4.092592592592593e-05, "loss": 0.3675, "step": 790 }, { "epoch": 0.26366666666666666, "grad_norm": 1.5678784847259521, "learning_rate": 4.090740740740741e-05, "loss": 0.3822, "step": 791 }, { "epoch": 0.264, "grad_norm": 1.7356022596359253, "learning_rate": 4.088888888888889e-05, "loss": 0.4107, "step": 792 }, { "epoch": 0.2643333333333333, "grad_norm": 1.1587564945220947, "learning_rate": 4.087037037037037e-05, "loss": 0.2792, "step": 793 }, { "epoch": 0.26466666666666666, "grad_norm": 1.576454758644104, "learning_rate": 4.0851851851851853e-05, "loss": 0.3757, "step": 794 }, { "epoch": 0.265, "grad_norm": 1.5076576471328735, "learning_rate": 4.0833333333333334e-05, "loss": 0.3876, "step": 795 }, { "epoch": 0.2653333333333333, "grad_norm": 1.4706981182098389, "learning_rate": 4.0814814814814815e-05, "loss": 0.3458, "step": 796 }, { "epoch": 0.26566666666666666, "grad_norm": 1.6495285034179688, "learning_rate": 4.0796296296296296e-05, "loss": 0.369, "step": 797 }, { "epoch": 0.266, "grad_norm": 1.2885559797286987, "learning_rate": 4.0777777777777783e-05, "loss": 0.3476, "step": 798 }, { "epoch": 0.2663333333333333, "grad_norm": 1.2338265180587769, "learning_rate": 4.0759259259259264e-05, "loss": 0.351, "step": 799 }, { "epoch": 0.26666666666666666, "grad_norm": 1.3814194202423096, "learning_rate": 4.074074074074074e-05, "loss": 0.353, "step": 800 }, { "epoch": 0.267, "grad_norm": 1.3949973583221436, "learning_rate": 4.0722222222222226e-05, "loss": 0.3971, "step": 801 }, { "epoch": 0.2673333333333333, "grad_norm": 1.2781027555465698, "learning_rate": 4.0703703703703707e-05, "loss": 0.3596, "step": 802 }, { "epoch": 0.26766666666666666, "grad_norm": 1.775307536125183, "learning_rate": 4.068518518518519e-05, "loss": 0.5056, "step": 803 }, { "epoch": 0.268, "grad_norm": 1.4195681810379028, "learning_rate": 4.066666666666667e-05, "loss": 0.3162, "step": 804 }, { "epoch": 0.2683333333333333, "grad_norm": 1.6774126291275024, "learning_rate": 4.064814814814815e-05, "loss": 0.3683, "step": 805 }, { "epoch": 0.26866666666666666, "grad_norm": 1.1482571363449097, "learning_rate": 4.0629629629629636e-05, "loss": 0.34, "step": 806 }, { "epoch": 0.269, "grad_norm": 1.2635096311569214, "learning_rate": 4.061111111111111e-05, "loss": 0.3663, "step": 807 }, { "epoch": 0.2693333333333333, "grad_norm": 1.5141239166259766, "learning_rate": 4.059259259259259e-05, "loss": 0.3972, "step": 808 }, { "epoch": 0.26966666666666667, "grad_norm": 1.4469480514526367, "learning_rate": 4.057407407407408e-05, "loss": 0.3729, "step": 809 }, { "epoch": 0.27, "grad_norm": 1.3128126859664917, "learning_rate": 4.055555555555556e-05, "loss": 0.3025, "step": 810 }, { "epoch": 0.2703333333333333, "grad_norm": 1.5247198343276978, "learning_rate": 4.053703703703704e-05, "loss": 0.3752, "step": 811 }, { "epoch": 0.27066666666666667, "grad_norm": 1.475996732711792, "learning_rate": 4.051851851851852e-05, "loss": 0.3655, "step": 812 }, { "epoch": 0.271, "grad_norm": 1.3385744094848633, "learning_rate": 4.05e-05, "loss": 0.3421, "step": 813 }, { "epoch": 0.2713333333333333, "grad_norm": 1.6504689455032349, "learning_rate": 4.048148148148148e-05, "loss": 0.3838, "step": 814 }, { "epoch": 0.27166666666666667, "grad_norm": 1.456794261932373, "learning_rate": 4.0462962962962963e-05, "loss": 0.3658, "step": 815 }, { "epoch": 0.272, "grad_norm": 1.3881524801254272, "learning_rate": 4.0444444444444444e-05, "loss": 0.3343, "step": 816 }, { "epoch": 0.2723333333333333, "grad_norm": 1.5507861375808716, "learning_rate": 4.0425925925925925e-05, "loss": 0.3516, "step": 817 }, { "epoch": 0.27266666666666667, "grad_norm": 1.2345412969589233, "learning_rate": 4.040740740740741e-05, "loss": 0.2705, "step": 818 }, { "epoch": 0.273, "grad_norm": 1.2728513479232788, "learning_rate": 4.038888888888889e-05, "loss": 0.3007, "step": 819 }, { "epoch": 0.2733333333333333, "grad_norm": 1.4103991985321045, "learning_rate": 4.0370370370370374e-05, "loss": 0.3626, "step": 820 }, { "epoch": 0.27366666666666667, "grad_norm": 1.4325361251831055, "learning_rate": 4.0351851851851855e-05, "loss": 0.3785, "step": 821 }, { "epoch": 0.274, "grad_norm": 1.4200563430786133, "learning_rate": 4.0333333333333336e-05, "loss": 0.378, "step": 822 }, { "epoch": 0.2743333333333333, "grad_norm": 1.456470012664795, "learning_rate": 4.0314814814814816e-05, "loss": 0.4219, "step": 823 }, { "epoch": 0.27466666666666667, "grad_norm": 1.28714120388031, "learning_rate": 4.02962962962963e-05, "loss": 0.3838, "step": 824 }, { "epoch": 0.275, "grad_norm": 1.287011981010437, "learning_rate": 4.027777777777778e-05, "loss": 0.3253, "step": 825 }, { "epoch": 0.2753333333333333, "grad_norm": 1.292240858078003, "learning_rate": 4.0259259259259266e-05, "loss": 0.3134, "step": 826 }, { "epoch": 0.27566666666666667, "grad_norm": 1.7025339603424072, "learning_rate": 4.024074074074074e-05, "loss": 0.5296, "step": 827 }, { "epoch": 0.276, "grad_norm": 1.3449290990829468, "learning_rate": 4.022222222222222e-05, "loss": 0.333, "step": 828 }, { "epoch": 0.2763333333333333, "grad_norm": 1.5160585641860962, "learning_rate": 4.020370370370371e-05, "loss": 0.3376, "step": 829 }, { "epoch": 0.27666666666666667, "grad_norm": 1.1866682767868042, "learning_rate": 4.018518518518519e-05, "loss": 0.2871, "step": 830 }, { "epoch": 0.277, "grad_norm": 1.785448431968689, "learning_rate": 4.016666666666667e-05, "loss": 0.3198, "step": 831 }, { "epoch": 0.2773333333333333, "grad_norm": 1.6618571281433105, "learning_rate": 4.014814814814815e-05, "loss": 0.3102, "step": 832 }, { "epoch": 0.2776666666666667, "grad_norm": 1.4342378377914429, "learning_rate": 4.012962962962963e-05, "loss": 0.4192, "step": 833 }, { "epoch": 0.278, "grad_norm": 1.165028691291809, "learning_rate": 4.011111111111111e-05, "loss": 0.301, "step": 834 }, { "epoch": 0.2783333333333333, "grad_norm": 1.4417414665222168, "learning_rate": 4.009259259259259e-05, "loss": 0.2726, "step": 835 }, { "epoch": 0.2786666666666667, "grad_norm": 1.2854143381118774, "learning_rate": 4.007407407407407e-05, "loss": 0.3716, "step": 836 }, { "epoch": 0.279, "grad_norm": 1.2607567310333252, "learning_rate": 4.0055555555555554e-05, "loss": 0.3157, "step": 837 }, { "epoch": 0.2793333333333333, "grad_norm": 1.3052359819412231, "learning_rate": 4.003703703703704e-05, "loss": 0.3762, "step": 838 }, { "epoch": 0.2796666666666667, "grad_norm": 1.495180606842041, "learning_rate": 4.001851851851852e-05, "loss": 0.4062, "step": 839 }, { "epoch": 0.28, "grad_norm": 1.353929877281189, "learning_rate": 4e-05, "loss": 0.3111, "step": 840 }, { "epoch": 0.2803333333333333, "grad_norm": 1.4994372129440308, "learning_rate": 3.9981481481481484e-05, "loss": 0.3643, "step": 841 }, { "epoch": 0.2806666666666667, "grad_norm": 1.097528338432312, "learning_rate": 3.9962962962962965e-05, "loss": 0.3381, "step": 842 }, { "epoch": 0.281, "grad_norm": 1.348486065864563, "learning_rate": 3.9944444444444446e-05, "loss": 0.3263, "step": 843 }, { "epoch": 0.2813333333333333, "grad_norm": 1.4403632879257202, "learning_rate": 3.9925925925925926e-05, "loss": 0.4281, "step": 844 }, { "epoch": 0.2816666666666667, "grad_norm": 1.3258768320083618, "learning_rate": 3.990740740740741e-05, "loss": 0.3579, "step": 845 }, { "epoch": 0.282, "grad_norm": 1.3752247095108032, "learning_rate": 3.9888888888888895e-05, "loss": 0.443, "step": 846 }, { "epoch": 0.2823333333333333, "grad_norm": 1.6445602178573608, "learning_rate": 3.9870370370370376e-05, "loss": 0.3588, "step": 847 }, { "epoch": 0.2826666666666667, "grad_norm": 1.41145658493042, "learning_rate": 3.985185185185185e-05, "loss": 0.3526, "step": 848 }, { "epoch": 0.283, "grad_norm": 5.141585350036621, "learning_rate": 3.983333333333333e-05, "loss": 0.3553, "step": 849 }, { "epoch": 0.2833333333333333, "grad_norm": 1.3255246877670288, "learning_rate": 3.981481481481482e-05, "loss": 0.352, "step": 850 }, { "epoch": 0.2836666666666667, "grad_norm": 1.4084287881851196, "learning_rate": 3.97962962962963e-05, "loss": 0.3834, "step": 851 }, { "epoch": 0.284, "grad_norm": 1.3366891145706177, "learning_rate": 3.977777777777778e-05, "loss": 0.3865, "step": 852 }, { "epoch": 0.2843333333333333, "grad_norm": 1.256201148033142, "learning_rate": 3.975925925925926e-05, "loss": 0.3187, "step": 853 }, { "epoch": 0.2846666666666667, "grad_norm": 1.4136888980865479, "learning_rate": 3.974074074074075e-05, "loss": 0.3765, "step": 854 }, { "epoch": 0.285, "grad_norm": 1.1720857620239258, "learning_rate": 3.972222222222222e-05, "loss": 0.2947, "step": 855 }, { "epoch": 0.2853333333333333, "grad_norm": 1.7148245573043823, "learning_rate": 3.97037037037037e-05, "loss": 0.3416, "step": 856 }, { "epoch": 0.2856666666666667, "grad_norm": 1.4059994220733643, "learning_rate": 3.968518518518518e-05, "loss": 0.3528, "step": 857 }, { "epoch": 0.286, "grad_norm": 1.571160078048706, "learning_rate": 3.966666666666667e-05, "loss": 0.3772, "step": 858 }, { "epoch": 0.28633333333333333, "grad_norm": 1.449386715888977, "learning_rate": 3.964814814814815e-05, "loss": 0.3623, "step": 859 }, { "epoch": 0.2866666666666667, "grad_norm": 1.1920171976089478, "learning_rate": 3.962962962962963e-05, "loss": 0.2957, "step": 860 }, { "epoch": 0.287, "grad_norm": 1.3213661909103394, "learning_rate": 3.961111111111111e-05, "loss": 0.3546, "step": 861 }, { "epoch": 0.28733333333333333, "grad_norm": 1.5201573371887207, "learning_rate": 3.9592592592592594e-05, "loss": 0.3355, "step": 862 }, { "epoch": 0.2876666666666667, "grad_norm": 1.8718082904815674, "learning_rate": 3.9574074074074075e-05, "loss": 0.329, "step": 863 }, { "epoch": 0.288, "grad_norm": 1.5103901624679565, "learning_rate": 3.9555555555555556e-05, "loss": 0.3645, "step": 864 }, { "epoch": 0.28833333333333333, "grad_norm": 1.3018239736557007, "learning_rate": 3.9537037037037036e-05, "loss": 0.3111, "step": 865 }, { "epoch": 0.2886666666666667, "grad_norm": 1.6183236837387085, "learning_rate": 3.9518518518518524e-05, "loss": 0.4415, "step": 866 }, { "epoch": 0.289, "grad_norm": 1.3570756912231445, "learning_rate": 3.9500000000000005e-05, "loss": 0.294, "step": 867 }, { "epoch": 0.28933333333333333, "grad_norm": 1.2522437572479248, "learning_rate": 3.9481481481481485e-05, "loss": 0.3571, "step": 868 }, { "epoch": 0.2896666666666667, "grad_norm": 1.3651636838912964, "learning_rate": 3.946296296296296e-05, "loss": 0.3585, "step": 869 }, { "epoch": 0.29, "grad_norm": 1.2567559480667114, "learning_rate": 3.944444444444445e-05, "loss": 0.3034, "step": 870 }, { "epoch": 0.29033333333333333, "grad_norm": 1.446004867553711, "learning_rate": 3.942592592592593e-05, "loss": 0.3542, "step": 871 }, { "epoch": 0.2906666666666667, "grad_norm": 1.6699246168136597, "learning_rate": 3.940740740740741e-05, "loss": 0.3636, "step": 872 }, { "epoch": 0.291, "grad_norm": 1.4893025159835815, "learning_rate": 3.938888888888889e-05, "loss": 0.346, "step": 873 }, { "epoch": 0.29133333333333333, "grad_norm": 1.4684242010116577, "learning_rate": 3.937037037037038e-05, "loss": 0.3505, "step": 874 }, { "epoch": 0.2916666666666667, "grad_norm": 1.2339351177215576, "learning_rate": 3.935185185185186e-05, "loss": 0.3128, "step": 875 }, { "epoch": 0.292, "grad_norm": 1.173764705657959, "learning_rate": 3.933333333333333e-05, "loss": 0.2901, "step": 876 }, { "epoch": 0.29233333333333333, "grad_norm": 1.3826504945755005, "learning_rate": 3.931481481481481e-05, "loss": 0.3294, "step": 877 }, { "epoch": 0.2926666666666667, "grad_norm": 1.2246149778366089, "learning_rate": 3.92962962962963e-05, "loss": 0.3178, "step": 878 }, { "epoch": 0.293, "grad_norm": 1.195994257926941, "learning_rate": 3.927777777777778e-05, "loss": 0.3298, "step": 879 }, { "epoch": 0.29333333333333333, "grad_norm": 1.223406434059143, "learning_rate": 3.925925925925926e-05, "loss": 0.3619, "step": 880 }, { "epoch": 0.2936666666666667, "grad_norm": 1.3600610494613647, "learning_rate": 3.924074074074074e-05, "loss": 0.3787, "step": 881 }, { "epoch": 0.294, "grad_norm": 1.4605013132095337, "learning_rate": 3.922222222222223e-05, "loss": 0.4291, "step": 882 }, { "epoch": 0.29433333333333334, "grad_norm": 1.3966978788375854, "learning_rate": 3.9203703703703704e-05, "loss": 0.3685, "step": 883 }, { "epoch": 0.2946666666666667, "grad_norm": 1.7487388849258423, "learning_rate": 3.9185185185185185e-05, "loss": 0.4585, "step": 884 }, { "epoch": 0.295, "grad_norm": 1.5563944578170776, "learning_rate": 3.9166666666666665e-05, "loss": 0.3958, "step": 885 }, { "epoch": 0.29533333333333334, "grad_norm": 1.1526061296463013, "learning_rate": 3.914814814814815e-05, "loss": 0.3108, "step": 886 }, { "epoch": 0.2956666666666667, "grad_norm": 2.1721689701080322, "learning_rate": 3.9129629629629634e-05, "loss": 0.3015, "step": 887 }, { "epoch": 0.296, "grad_norm": 1.611386775970459, "learning_rate": 3.9111111111111115e-05, "loss": 0.4427, "step": 888 }, { "epoch": 0.29633333333333334, "grad_norm": 1.6230885982513428, "learning_rate": 3.909259259259259e-05, "loss": 0.3378, "step": 889 }, { "epoch": 0.2966666666666667, "grad_norm": 1.3626060485839844, "learning_rate": 3.9074074074074076e-05, "loss": 0.3879, "step": 890 }, { "epoch": 0.297, "grad_norm": 1.6999090909957886, "learning_rate": 3.905555555555556e-05, "loss": 0.4033, "step": 891 }, { "epoch": 0.29733333333333334, "grad_norm": 1.3023254871368408, "learning_rate": 3.903703703703704e-05, "loss": 0.3567, "step": 892 }, { "epoch": 0.2976666666666667, "grad_norm": 1.7830791473388672, "learning_rate": 3.901851851851852e-05, "loss": 0.3597, "step": 893 }, { "epoch": 0.298, "grad_norm": 1.5148744583129883, "learning_rate": 3.9000000000000006e-05, "loss": 0.3728, "step": 894 }, { "epoch": 0.29833333333333334, "grad_norm": 1.3890525102615356, "learning_rate": 3.898148148148149e-05, "loss": 0.3208, "step": 895 }, { "epoch": 0.2986666666666667, "grad_norm": 1.2798212766647339, "learning_rate": 3.896296296296296e-05, "loss": 0.346, "step": 896 }, { "epoch": 0.299, "grad_norm": 1.3253546953201294, "learning_rate": 3.894444444444444e-05, "loss": 0.3252, "step": 897 }, { "epoch": 0.29933333333333334, "grad_norm": 1.3032668828964233, "learning_rate": 3.892592592592593e-05, "loss": 0.3739, "step": 898 }, { "epoch": 0.2996666666666667, "grad_norm": 1.2352277040481567, "learning_rate": 3.890740740740741e-05, "loss": 0.3514, "step": 899 }, { "epoch": 0.3, "grad_norm": 1.3053611516952515, "learning_rate": 3.888888888888889e-05, "loss": 0.3875, "step": 900 }, { "epoch": 0.30033333333333334, "grad_norm": 1.0773141384124756, "learning_rate": 3.887037037037037e-05, "loss": 0.2743, "step": 901 }, { "epoch": 0.3006666666666667, "grad_norm": 1.2912036180496216, "learning_rate": 3.885185185185186e-05, "loss": 0.3447, "step": 902 }, { "epoch": 0.301, "grad_norm": 1.272647500038147, "learning_rate": 3.883333333333333e-05, "loss": 0.3419, "step": 903 }, { "epoch": 0.30133333333333334, "grad_norm": 1.4251070022583008, "learning_rate": 3.8814814814814814e-05, "loss": 0.3738, "step": 904 }, { "epoch": 0.3016666666666667, "grad_norm": 1.3882228136062622, "learning_rate": 3.8796296296296295e-05, "loss": 0.3295, "step": 905 }, { "epoch": 0.302, "grad_norm": 1.5582339763641357, "learning_rate": 3.877777777777778e-05, "loss": 0.4242, "step": 906 }, { "epoch": 0.30233333333333334, "grad_norm": 1.359479308128357, "learning_rate": 3.875925925925926e-05, "loss": 0.3797, "step": 907 }, { "epoch": 0.30266666666666664, "grad_norm": 1.6548995971679688, "learning_rate": 3.8740740740740744e-05, "loss": 0.3808, "step": 908 }, { "epoch": 0.303, "grad_norm": 1.2039756774902344, "learning_rate": 3.8722222222222225e-05, "loss": 0.3139, "step": 909 }, { "epoch": 0.30333333333333334, "grad_norm": 1.0794775485992432, "learning_rate": 3.8703703703703705e-05, "loss": 0.2616, "step": 910 }, { "epoch": 0.30366666666666664, "grad_norm": 1.4288307428359985, "learning_rate": 3.8685185185185186e-05, "loss": 0.3401, "step": 911 }, { "epoch": 0.304, "grad_norm": 1.3045710325241089, "learning_rate": 3.866666666666667e-05, "loss": 0.3058, "step": 912 }, { "epoch": 0.30433333333333334, "grad_norm": 1.2060816287994385, "learning_rate": 3.864814814814815e-05, "loss": 0.3089, "step": 913 }, { "epoch": 0.30466666666666664, "grad_norm": 1.7363193035125732, "learning_rate": 3.8629629629629635e-05, "loss": 0.3443, "step": 914 }, { "epoch": 0.305, "grad_norm": 1.6673532724380493, "learning_rate": 3.8611111111111116e-05, "loss": 0.3454, "step": 915 }, { "epoch": 0.30533333333333335, "grad_norm": 1.3578459024429321, "learning_rate": 3.85925925925926e-05, "loss": 0.3108, "step": 916 }, { "epoch": 0.30566666666666664, "grad_norm": 1.2931619882583618, "learning_rate": 3.857407407407407e-05, "loss": 0.2997, "step": 917 }, { "epoch": 0.306, "grad_norm": 1.2525206804275513, "learning_rate": 3.855555555555556e-05, "loss": 0.3154, "step": 918 }, { "epoch": 0.30633333333333335, "grad_norm": 1.3815010786056519, "learning_rate": 3.853703703703704e-05, "loss": 0.3254, "step": 919 }, { "epoch": 0.30666666666666664, "grad_norm": 1.4179706573486328, "learning_rate": 3.851851851851852e-05, "loss": 0.3767, "step": 920 }, { "epoch": 0.307, "grad_norm": 1.3598191738128662, "learning_rate": 3.85e-05, "loss": 0.3513, "step": 921 }, { "epoch": 0.30733333333333335, "grad_norm": 1.7877548933029175, "learning_rate": 3.848148148148149e-05, "loss": 0.3614, "step": 922 }, { "epoch": 0.30766666666666664, "grad_norm": 1.3656010627746582, "learning_rate": 3.846296296296297e-05, "loss": 0.3425, "step": 923 }, { "epoch": 0.308, "grad_norm": 4.808995246887207, "learning_rate": 3.844444444444444e-05, "loss": 0.307, "step": 924 }, { "epoch": 0.30833333333333335, "grad_norm": 1.1662079095840454, "learning_rate": 3.8425925925925924e-05, "loss": 0.3141, "step": 925 }, { "epoch": 0.30866666666666664, "grad_norm": 1.2092838287353516, "learning_rate": 3.840740740740741e-05, "loss": 0.3022, "step": 926 }, { "epoch": 0.309, "grad_norm": 1.454504132270813, "learning_rate": 3.838888888888889e-05, "loss": 0.3933, "step": 927 }, { "epoch": 0.30933333333333335, "grad_norm": 2.092907667160034, "learning_rate": 3.837037037037037e-05, "loss": 0.3429, "step": 928 }, { "epoch": 0.30966666666666665, "grad_norm": 1.180614948272705, "learning_rate": 3.8351851851851854e-05, "loss": 0.2756, "step": 929 }, { "epoch": 0.31, "grad_norm": 1.3005765676498413, "learning_rate": 3.8333333333333334e-05, "loss": 0.3362, "step": 930 }, { "epoch": 0.31033333333333335, "grad_norm": 1.469460129737854, "learning_rate": 3.8314814814814815e-05, "loss": 0.3987, "step": 931 }, { "epoch": 0.31066666666666665, "grad_norm": NaN, "learning_rate": 3.8314814814814815e-05, "loss": 0.3286, "step": 932 }, { "epoch": 0.311, "grad_norm": 1.983880639076233, "learning_rate": 3.8296296296296296e-05, "loss": 0.3333, "step": 933 }, { "epoch": 0.31133333333333335, "grad_norm": 1.4871864318847656, "learning_rate": 3.827777777777778e-05, "loss": 0.3111, "step": 934 }, { "epoch": 0.31166666666666665, "grad_norm": 1.5106232166290283, "learning_rate": 3.8259259259259264e-05, "loss": 0.3756, "step": 935 }, { "epoch": 0.312, "grad_norm": 1.415174126625061, "learning_rate": 3.8240740740740745e-05, "loss": 0.3393, "step": 936 }, { "epoch": 0.31233333333333335, "grad_norm": 1.444771409034729, "learning_rate": 3.8222222222222226e-05, "loss": 0.3537, "step": 937 }, { "epoch": 0.31266666666666665, "grad_norm": 1.3916597366333008, "learning_rate": 3.820370370370371e-05, "loss": 0.3592, "step": 938 }, { "epoch": 0.313, "grad_norm": 1.3703736066818237, "learning_rate": 3.818518518518519e-05, "loss": 0.3531, "step": 939 }, { "epoch": 0.31333333333333335, "grad_norm": 2.362666606903076, "learning_rate": 3.816666666666667e-05, "loss": 0.3717, "step": 940 }, { "epoch": 0.31366666666666665, "grad_norm": 1.9897328615188599, "learning_rate": 3.814814814814815e-05, "loss": 0.5176, "step": 941 }, { "epoch": 0.314, "grad_norm": 1.2957475185394287, "learning_rate": 3.812962962962963e-05, "loss": 0.332, "step": 942 }, { "epoch": 0.31433333333333335, "grad_norm": 1.3311879634857178, "learning_rate": 3.811111111111112e-05, "loss": 0.3401, "step": 943 }, { "epoch": 0.31466666666666665, "grad_norm": 2.005011558532715, "learning_rate": 3.80925925925926e-05, "loss": 0.3492, "step": 944 }, { "epoch": 0.315, "grad_norm": 1.47440505027771, "learning_rate": 3.807407407407408e-05, "loss": 0.3661, "step": 945 }, { "epoch": 0.31533333333333335, "grad_norm": 1.5715532302856445, "learning_rate": 3.805555555555555e-05, "loss": 0.2935, "step": 946 }, { "epoch": 0.31566666666666665, "grad_norm": 1.3023148775100708, "learning_rate": 3.803703703703704e-05, "loss": 0.331, "step": 947 }, { "epoch": 0.316, "grad_norm": 1.3504129648208618, "learning_rate": 3.801851851851852e-05, "loss": 0.3112, "step": 948 }, { "epoch": 0.31633333333333336, "grad_norm": 2.1642982959747314, "learning_rate": 3.8e-05, "loss": 0.3065, "step": 949 }, { "epoch": 0.31666666666666665, "grad_norm": 2.3918402194976807, "learning_rate": 3.798148148148148e-05, "loss": 0.3791, "step": 950 }, { "epoch": 0.317, "grad_norm": 1.3676456212997437, "learning_rate": 3.7962962962962964e-05, "loss": 0.3289, "step": 951 }, { "epoch": 0.31733333333333336, "grad_norm": 1.2880066633224487, "learning_rate": 3.7944444444444444e-05, "loss": 0.2805, "step": 952 }, { "epoch": 0.31766666666666665, "grad_norm": 1.68917977809906, "learning_rate": 3.7925925925925925e-05, "loss": 0.3794, "step": 953 }, { "epoch": 0.318, "grad_norm": 1.5723520517349243, "learning_rate": 3.7907407407407406e-05, "loss": 0.2986, "step": 954 }, { "epoch": 0.31833333333333336, "grad_norm": 1.8405094146728516, "learning_rate": 3.7888888888888894e-05, "loss": 0.3654, "step": 955 }, { "epoch": 0.31866666666666665, "grad_norm": 1.9899356365203857, "learning_rate": 3.7870370370370374e-05, "loss": 0.4314, "step": 956 }, { "epoch": 0.319, "grad_norm": 1.42067289352417, "learning_rate": 3.7851851851851855e-05, "loss": 0.3136, "step": 957 }, { "epoch": 0.31933333333333336, "grad_norm": 1.519590973854065, "learning_rate": 3.7833333333333336e-05, "loss": 0.3896, "step": 958 }, { "epoch": 0.31966666666666665, "grad_norm": 1.5198662281036377, "learning_rate": 3.781481481481482e-05, "loss": 0.3821, "step": 959 }, { "epoch": 0.32, "grad_norm": 1.918550729751587, "learning_rate": 3.77962962962963e-05, "loss": 0.3349, "step": 960 }, { "epoch": 0.32033333333333336, "grad_norm": 1.3605577945709229, "learning_rate": 3.777777777777778e-05, "loss": 0.3489, "step": 961 }, { "epoch": 0.32066666666666666, "grad_norm": 1.2916854619979858, "learning_rate": 3.775925925925926e-05, "loss": 0.347, "step": 962 }, { "epoch": 0.321, "grad_norm": 1.572582721710205, "learning_rate": 3.774074074074074e-05, "loss": 0.3121, "step": 963 }, { "epoch": 0.32133333333333336, "grad_norm": 1.4521883726119995, "learning_rate": 3.772222222222223e-05, "loss": 0.3555, "step": 964 }, { "epoch": 0.32166666666666666, "grad_norm": 2.1491146087646484, "learning_rate": 3.770370370370371e-05, "loss": 0.3366, "step": 965 }, { "epoch": 0.322, "grad_norm": 1.4262841939926147, "learning_rate": 3.768518518518518e-05, "loss": 0.3533, "step": 966 }, { "epoch": 0.32233333333333336, "grad_norm": 1.3143759965896606, "learning_rate": 3.766666666666667e-05, "loss": 0.4036, "step": 967 }, { "epoch": 0.32266666666666666, "grad_norm": 1.2250725030899048, "learning_rate": 3.764814814814815e-05, "loss": 0.2897, "step": 968 }, { "epoch": 0.323, "grad_norm": 1.3469847440719604, "learning_rate": 3.762962962962963e-05, "loss": 0.3312, "step": 969 }, { "epoch": 0.3233333333333333, "grad_norm": 1.8355865478515625, "learning_rate": 3.761111111111111e-05, "loss": 0.2953, "step": 970 }, { "epoch": 0.32366666666666666, "grad_norm": 1.3881330490112305, "learning_rate": 3.759259259259259e-05, "loss": 0.3115, "step": 971 }, { "epoch": 0.324, "grad_norm": 1.5569638013839722, "learning_rate": 3.757407407407408e-05, "loss": 0.4032, "step": 972 }, { "epoch": 0.3243333333333333, "grad_norm": 1.3486943244934082, "learning_rate": 3.7555555555555554e-05, "loss": 0.2901, "step": 973 }, { "epoch": 0.32466666666666666, "grad_norm": 1.3435277938842773, "learning_rate": 3.7537037037037035e-05, "loss": 0.2702, "step": 974 }, { "epoch": 0.325, "grad_norm": 1.344024419784546, "learning_rate": 3.751851851851852e-05, "loss": 0.306, "step": 975 }, { "epoch": 0.3253333333333333, "grad_norm": 1.397646188735962, "learning_rate": 3.7500000000000003e-05, "loss": 0.2537, "step": 976 }, { "epoch": 0.32566666666666666, "grad_norm": 4.373431205749512, "learning_rate": 3.7481481481481484e-05, "loss": 0.3172, "step": 977 }, { "epoch": 0.326, "grad_norm": 1.3574572801589966, "learning_rate": 3.7462962962962965e-05, "loss": 0.3017, "step": 978 }, { "epoch": 0.3263333333333333, "grad_norm": 1.3563703298568726, "learning_rate": 3.7444444444444446e-05, "loss": 0.3509, "step": 979 }, { "epoch": 0.32666666666666666, "grad_norm": 1.2914656400680542, "learning_rate": 3.742592592592593e-05, "loss": 0.3042, "step": 980 }, { "epoch": 0.327, "grad_norm": 1.3205169439315796, "learning_rate": 3.740740740740741e-05, "loss": 0.3018, "step": 981 }, { "epoch": 0.3273333333333333, "grad_norm": 1.7126083374023438, "learning_rate": 3.738888888888889e-05, "loss": 0.3478, "step": 982 }, { "epoch": 0.32766666666666666, "grad_norm": 1.3673988580703735, "learning_rate": 3.737037037037037e-05, "loss": 0.3276, "step": 983 }, { "epoch": 0.328, "grad_norm": 1.5554841756820679, "learning_rate": 3.7351851851851857e-05, "loss": 0.3449, "step": 984 }, { "epoch": 0.3283333333333333, "grad_norm": 1.2867860794067383, "learning_rate": 3.733333333333334e-05, "loss": 0.2982, "step": 985 }, { "epoch": 0.32866666666666666, "grad_norm": 1.4816596508026123, "learning_rate": 3.731481481481482e-05, "loss": 0.3259, "step": 986 }, { "epoch": 0.329, "grad_norm": 1.2446486949920654, "learning_rate": 3.72962962962963e-05, "loss": 0.3243, "step": 987 }, { "epoch": 0.3293333333333333, "grad_norm": 1.3690942525863647, "learning_rate": 3.727777777777778e-05, "loss": 0.314, "step": 988 }, { "epoch": 0.32966666666666666, "grad_norm": 1.192113995552063, "learning_rate": 3.725925925925926e-05, "loss": 0.3543, "step": 989 }, { "epoch": 0.33, "grad_norm": 1.291727900505066, "learning_rate": 3.724074074074074e-05, "loss": 0.3282, "step": 990 }, { "epoch": 0.3303333333333333, "grad_norm": 1.2864351272583008, "learning_rate": 3.722222222222222e-05, "loss": 0.3076, "step": 991 }, { "epoch": 0.33066666666666666, "grad_norm": 1.4030873775482178, "learning_rate": 3.720370370370371e-05, "loss": 0.3233, "step": 992 }, { "epoch": 0.331, "grad_norm": 1.384459137916565, "learning_rate": 3.718518518518519e-05, "loss": 0.3349, "step": 993 }, { "epoch": 0.3313333333333333, "grad_norm": 1.7232944965362549, "learning_rate": 3.7166666666666664e-05, "loss": 0.3192, "step": 994 }, { "epoch": 0.33166666666666667, "grad_norm": 1.237061619758606, "learning_rate": 3.714814814814815e-05, "loss": 0.3508, "step": 995 }, { "epoch": 0.332, "grad_norm": 1.238932490348816, "learning_rate": 3.712962962962963e-05, "loss": 0.3306, "step": 996 }, { "epoch": 0.3323333333333333, "grad_norm": 1.179057002067566, "learning_rate": 3.7111111111111113e-05, "loss": 0.258, "step": 997 }, { "epoch": 0.33266666666666667, "grad_norm": 1.2349563837051392, "learning_rate": 3.7092592592592594e-05, "loss": 0.2826, "step": 998 }, { "epoch": 0.333, "grad_norm": 1.2763677835464478, "learning_rate": 3.7074074074074075e-05, "loss": 0.3256, "step": 999 }, { "epoch": 0.3333333333333333, "grad_norm": 1.5997756719589233, "learning_rate": 3.705555555555556e-05, "loss": 0.3034, "step": 1000 }, { "epoch": 0.33366666666666667, "grad_norm": 1.4051567316055298, "learning_rate": 3.7037037037037037e-05, "loss": 0.2879, "step": 1001 }, { "epoch": 0.334, "grad_norm": 1.150168776512146, "learning_rate": 3.701851851851852e-05, "loss": 0.2664, "step": 1002 }, { "epoch": 0.3343333333333333, "grad_norm": 1.438923716545105, "learning_rate": 3.7e-05, "loss": 0.3263, "step": 1003 }, { "epoch": 0.33466666666666667, "grad_norm": 1.2288265228271484, "learning_rate": 3.6981481481481486e-05, "loss": 0.2793, "step": 1004 }, { "epoch": 0.335, "grad_norm": 1.1903449296951294, "learning_rate": 3.6962962962962966e-05, "loss": 0.2726, "step": 1005 }, { "epoch": 0.3353333333333333, "grad_norm": 1.357292652130127, "learning_rate": 3.694444444444445e-05, "loss": 0.2947, "step": 1006 }, { "epoch": 0.33566666666666667, "grad_norm": 1.5391733646392822, "learning_rate": 3.692592592592593e-05, "loss": 0.351, "step": 1007 }, { "epoch": 0.336, "grad_norm": 1.4874252080917358, "learning_rate": 3.690740740740741e-05, "loss": 0.3729, "step": 1008 }, { "epoch": 0.3363333333333333, "grad_norm": 1.2804758548736572, "learning_rate": 3.688888888888889e-05, "loss": 0.3476, "step": 1009 }, { "epoch": 0.33666666666666667, "grad_norm": 1.4765470027923584, "learning_rate": 3.687037037037037e-05, "loss": 0.3668, "step": 1010 }, { "epoch": 0.337, "grad_norm": 1.4163161516189575, "learning_rate": 3.685185185185185e-05, "loss": 0.3483, "step": 1011 }, { "epoch": 0.3373333333333333, "grad_norm": 1.0593568086624146, "learning_rate": 3.683333333333334e-05, "loss": 0.2568, "step": 1012 }, { "epoch": 0.33766666666666667, "grad_norm": 1.1782392263412476, "learning_rate": 3.681481481481482e-05, "loss": 0.293, "step": 1013 }, { "epoch": 0.338, "grad_norm": 1.3001588582992554, "learning_rate": 3.6796296296296293e-05, "loss": 0.3135, "step": 1014 }, { "epoch": 0.3383333333333333, "grad_norm": 1.9914343357086182, "learning_rate": 3.677777777777778e-05, "loss": 0.357, "step": 1015 }, { "epoch": 0.33866666666666667, "grad_norm": 1.0276645421981812, "learning_rate": 3.675925925925926e-05, "loss": 0.2545, "step": 1016 }, { "epoch": 0.339, "grad_norm": 1.3311192989349365, "learning_rate": 3.674074074074074e-05, "loss": 0.2716, "step": 1017 }, { "epoch": 0.3393333333333333, "grad_norm": 1.3145405054092407, "learning_rate": 3.672222222222222e-05, "loss": 0.3814, "step": 1018 }, { "epoch": 0.3396666666666667, "grad_norm": 1.3477872610092163, "learning_rate": 3.6703703703703704e-05, "loss": 0.32, "step": 1019 }, { "epoch": 0.34, "grad_norm": 1.3063677549362183, "learning_rate": 3.668518518518519e-05, "loss": 0.2937, "step": 1020 }, { "epoch": 0.3403333333333333, "grad_norm": 1.295404076576233, "learning_rate": 3.6666666666666666e-05, "loss": 0.3222, "step": 1021 }, { "epoch": 0.3406666666666667, "grad_norm": 2.0237696170806885, "learning_rate": 3.6648148148148146e-05, "loss": 0.3149, "step": 1022 }, { "epoch": 0.341, "grad_norm": 1.2823859453201294, "learning_rate": 3.662962962962963e-05, "loss": 0.3273, "step": 1023 }, { "epoch": 0.3413333333333333, "grad_norm": 1.5880634784698486, "learning_rate": 3.6611111111111115e-05, "loss": 0.3208, "step": 1024 }, { "epoch": 0.3416666666666667, "grad_norm": 1.2414577007293701, "learning_rate": 3.6592592592592596e-05, "loss": 0.3153, "step": 1025 }, { "epoch": 0.342, "grad_norm": 1.3580373525619507, "learning_rate": 3.6574074074074076e-05, "loss": 0.3836, "step": 1026 }, { "epoch": 0.3423333333333333, "grad_norm": 1.3877129554748535, "learning_rate": 3.655555555555556e-05, "loss": 0.3624, "step": 1027 }, { "epoch": 0.3426666666666667, "grad_norm": 1.1374024152755737, "learning_rate": 3.653703703703704e-05, "loss": 0.2904, "step": 1028 }, { "epoch": 0.343, "grad_norm": 1.1905382871627808, "learning_rate": 3.651851851851852e-05, "loss": 0.306, "step": 1029 }, { "epoch": 0.3433333333333333, "grad_norm": 1.3223686218261719, "learning_rate": 3.65e-05, "loss": 0.3584, "step": 1030 }, { "epoch": 0.3436666666666667, "grad_norm": 1.4666658639907837, "learning_rate": 3.648148148148148e-05, "loss": 0.3107, "step": 1031 }, { "epoch": 0.344, "grad_norm": 1.619066596031189, "learning_rate": 3.646296296296297e-05, "loss": 0.3838, "step": 1032 }, { "epoch": 0.3443333333333333, "grad_norm": 2.1325740814208984, "learning_rate": 3.644444444444445e-05, "loss": 0.4135, "step": 1033 }, { "epoch": 0.3446666666666667, "grad_norm": 1.364968180656433, "learning_rate": 3.642592592592593e-05, "loss": 0.3454, "step": 1034 }, { "epoch": 0.345, "grad_norm": 1.584752082824707, "learning_rate": 3.6407407407407403e-05, "loss": 0.3123, "step": 1035 }, { "epoch": 0.3453333333333333, "grad_norm": 1.3419305086135864, "learning_rate": 3.638888888888889e-05, "loss": 0.3226, "step": 1036 }, { "epoch": 0.3456666666666667, "grad_norm": 1.1971396207809448, "learning_rate": 3.637037037037037e-05, "loss": 0.2936, "step": 1037 }, { "epoch": 0.346, "grad_norm": 1.3042372465133667, "learning_rate": 3.635185185185185e-05, "loss": 0.3491, "step": 1038 }, { "epoch": 0.3463333333333333, "grad_norm": 1.4561793804168701, "learning_rate": 3.633333333333333e-05, "loss": 0.3644, "step": 1039 }, { "epoch": 0.3466666666666667, "grad_norm": 1.2615970373153687, "learning_rate": 3.631481481481482e-05, "loss": 0.3311, "step": 1040 }, { "epoch": 0.347, "grad_norm": 1.3194597959518433, "learning_rate": 3.62962962962963e-05, "loss": 0.2842, "step": 1041 }, { "epoch": 0.3473333333333333, "grad_norm": 1.4123057126998901, "learning_rate": 3.6277777777777776e-05, "loss": 0.3322, "step": 1042 }, { "epoch": 0.3476666666666667, "grad_norm": 1.637178659439087, "learning_rate": 3.6259259259259256e-05, "loss": 0.3588, "step": 1043 }, { "epoch": 0.348, "grad_norm": Infinity, "learning_rate": 3.6259259259259256e-05, "loss": 0.4188, "step": 1044 }, { "epoch": 0.34833333333333333, "grad_norm": 1.8338710069656372, "learning_rate": 3.6240740740740744e-05, "loss": 0.3217, "step": 1045 }, { "epoch": 0.3486666666666667, "grad_norm": 1.5536363124847412, "learning_rate": 3.6222222222222225e-05, "loss": 0.3984, "step": 1046 }, { "epoch": 0.349, "grad_norm": 1.2965439558029175, "learning_rate": 3.6203703703703706e-05, "loss": 0.3165, "step": 1047 }, { "epoch": 0.34933333333333333, "grad_norm": 3.6286535263061523, "learning_rate": 3.6185185185185186e-05, "loss": 0.3998, "step": 1048 }, { "epoch": 0.3496666666666667, "grad_norm": 1.1830613613128662, "learning_rate": 3.6166666666666674e-05, "loss": 0.3019, "step": 1049 }, { "epoch": 0.35, "grad_norm": 1.5949627161026, "learning_rate": 3.614814814814815e-05, "loss": 0.3433, "step": 1050 }, { "epoch": 0.35033333333333333, "grad_norm": 1.4907891750335693, "learning_rate": 3.612962962962963e-05, "loss": 0.3125, "step": 1051 }, { "epoch": 0.3506666666666667, "grad_norm": 1.3485552072525024, "learning_rate": 3.611111111111111e-05, "loss": 0.4253, "step": 1052 }, { "epoch": 0.351, "grad_norm": 1.202929139137268, "learning_rate": 3.60925925925926e-05, "loss": 0.3675, "step": 1053 }, { "epoch": 0.35133333333333333, "grad_norm": 1.1480059623718262, "learning_rate": 3.607407407407408e-05, "loss": 0.3048, "step": 1054 }, { "epoch": 0.3516666666666667, "grad_norm": 1.4422245025634766, "learning_rate": 3.605555555555556e-05, "loss": 0.2957, "step": 1055 }, { "epoch": 0.352, "grad_norm": 1.614688515663147, "learning_rate": 3.603703703703704e-05, "loss": 0.4132, "step": 1056 }, { "epoch": 0.35233333333333333, "grad_norm": 1.2919830083847046, "learning_rate": 3.601851851851852e-05, "loss": 0.324, "step": 1057 }, { "epoch": 0.3526666666666667, "grad_norm": 1.2919201850891113, "learning_rate": 3.6e-05, "loss": 0.3121, "step": 1058 }, { "epoch": 0.353, "grad_norm": 1.1040555238723755, "learning_rate": 3.598148148148148e-05, "loss": 0.2633, "step": 1059 }, { "epoch": 0.35333333333333333, "grad_norm": 1.2699229717254639, "learning_rate": 3.596296296296296e-05, "loss": 0.3295, "step": 1060 }, { "epoch": 0.3536666666666667, "grad_norm": 1.2212663888931274, "learning_rate": 3.594444444444445e-05, "loss": 0.3422, "step": 1061 }, { "epoch": 0.354, "grad_norm": 1.4259370565414429, "learning_rate": 3.592592592592593e-05, "loss": 0.2969, "step": 1062 }, { "epoch": 0.35433333333333333, "grad_norm": 3.2407474517822266, "learning_rate": 3.590740740740741e-05, "loss": 0.3382, "step": 1063 }, { "epoch": 0.3546666666666667, "grad_norm": 1.8349798917770386, "learning_rate": 3.5888888888888886e-05, "loss": 0.4496, "step": 1064 }, { "epoch": 0.355, "grad_norm": 1.2848482131958008, "learning_rate": 3.587037037037037e-05, "loss": 0.3556, "step": 1065 }, { "epoch": 0.35533333333333333, "grad_norm": 1.2955257892608643, "learning_rate": 3.5851851851851854e-05, "loss": 0.3161, "step": 1066 }, { "epoch": 0.3556666666666667, "grad_norm": 1.3511271476745605, "learning_rate": 3.5833333333333335e-05, "loss": 0.2793, "step": 1067 }, { "epoch": 0.356, "grad_norm": 1.1509175300598145, "learning_rate": 3.5814814814814815e-05, "loss": 0.2816, "step": 1068 }, { "epoch": 0.35633333333333334, "grad_norm": 1.3853956460952759, "learning_rate": 3.57962962962963e-05, "loss": 0.3096, "step": 1069 }, { "epoch": 0.3566666666666667, "grad_norm": 1.2324105501174927, "learning_rate": 3.577777777777778e-05, "loss": 0.3112, "step": 1070 }, { "epoch": 0.357, "grad_norm": 4.7527875900268555, "learning_rate": 3.575925925925926e-05, "loss": 0.33, "step": 1071 }, { "epoch": 0.35733333333333334, "grad_norm": 1.474766492843628, "learning_rate": 3.574074074074074e-05, "loss": 0.3616, "step": 1072 }, { "epoch": 0.3576666666666667, "grad_norm": 1.299726128578186, "learning_rate": 3.5722222222222226e-05, "loss": 0.3271, "step": 1073 }, { "epoch": 0.358, "grad_norm": 1.3764387369155884, "learning_rate": 3.570370370370371e-05, "loss": 0.3473, "step": 1074 }, { "epoch": 0.35833333333333334, "grad_norm": 1.2798625230789185, "learning_rate": 3.568518518518519e-05, "loss": 0.3222, "step": 1075 }, { "epoch": 0.3586666666666667, "grad_norm": 1.4264801740646362, "learning_rate": 3.566666666666667e-05, "loss": 0.3356, "step": 1076 }, { "epoch": 0.359, "grad_norm": 1.4264799356460571, "learning_rate": 3.564814814814815e-05, "loss": 0.3916, "step": 1077 }, { "epoch": 0.35933333333333334, "grad_norm": 1.4833095073699951, "learning_rate": 3.562962962962963e-05, "loss": 0.4323, "step": 1078 }, { "epoch": 0.3596666666666667, "grad_norm": 1.3696162700653076, "learning_rate": 3.561111111111111e-05, "loss": 0.3067, "step": 1079 }, { "epoch": 0.36, "grad_norm": 1.1376667022705078, "learning_rate": 3.559259259259259e-05, "loss": 0.2584, "step": 1080 }, { "epoch": 0.36033333333333334, "grad_norm": 1.076449990272522, "learning_rate": 3.557407407407408e-05, "loss": 0.3075, "step": 1081 }, { "epoch": 0.3606666666666667, "grad_norm": 1.411630630493164, "learning_rate": 3.555555555555556e-05, "loss": 0.4375, "step": 1082 }, { "epoch": 0.361, "grad_norm": 1.3988670110702515, "learning_rate": 3.553703703703704e-05, "loss": 0.354, "step": 1083 }, { "epoch": 0.36133333333333334, "grad_norm": 1.290349006652832, "learning_rate": 3.5518518518518515e-05, "loss": 0.2686, "step": 1084 }, { "epoch": 0.3616666666666667, "grad_norm": 1.1678707599639893, "learning_rate": 3.55e-05, "loss": 0.3312, "step": 1085 }, { "epoch": 0.362, "grad_norm": 1.5115658044815063, "learning_rate": 3.548148148148148e-05, "loss": 0.3962, "step": 1086 }, { "epoch": 0.36233333333333334, "grad_norm": 1.4765334129333496, "learning_rate": 3.5462962962962964e-05, "loss": 0.3086, "step": 1087 }, { "epoch": 0.3626666666666667, "grad_norm": 1.769323706626892, "learning_rate": 3.5444444444444445e-05, "loss": 0.3703, "step": 1088 }, { "epoch": 0.363, "grad_norm": 1.3390990495681763, "learning_rate": 3.542592592592593e-05, "loss": 0.3462, "step": 1089 }, { "epoch": 0.36333333333333334, "grad_norm": 1.5921162366867065, "learning_rate": 3.540740740740741e-05, "loss": 0.3318, "step": 1090 }, { "epoch": 0.3636666666666667, "grad_norm": 2.3825714588165283, "learning_rate": 3.538888888888889e-05, "loss": 0.3215, "step": 1091 }, { "epoch": 0.364, "grad_norm": 2.107105016708374, "learning_rate": 3.537037037037037e-05, "loss": 0.354, "step": 1092 }, { "epoch": 0.36433333333333334, "grad_norm": 1.3918901681900024, "learning_rate": 3.5351851851851855e-05, "loss": 0.3781, "step": 1093 }, { "epoch": 0.36466666666666664, "grad_norm": 1.5562140941619873, "learning_rate": 3.5333333333333336e-05, "loss": 0.4105, "step": 1094 }, { "epoch": 0.365, "grad_norm": 1.2961052656173706, "learning_rate": 3.531481481481482e-05, "loss": 0.2773, "step": 1095 }, { "epoch": 0.36533333333333334, "grad_norm": 1.5703457593917847, "learning_rate": 3.52962962962963e-05, "loss": 0.3547, "step": 1096 }, { "epoch": 0.36566666666666664, "grad_norm": 1.3313580751419067, "learning_rate": 3.527777777777778e-05, "loss": 0.3545, "step": 1097 }, { "epoch": 0.366, "grad_norm": 1.1296862363815308, "learning_rate": 3.525925925925926e-05, "loss": 0.3069, "step": 1098 }, { "epoch": 0.36633333333333334, "grad_norm": 1.5490580797195435, "learning_rate": 3.524074074074074e-05, "loss": 0.3374, "step": 1099 }, { "epoch": 0.36666666666666664, "grad_norm": 1.2726596593856812, "learning_rate": 3.522222222222222e-05, "loss": 0.3402, "step": 1100 }, { "epoch": 0.367, "grad_norm": 1.315387487411499, "learning_rate": 3.520370370370371e-05, "loss": 0.3201, "step": 1101 }, { "epoch": 0.36733333333333335, "grad_norm": 1.2253965139389038, "learning_rate": 3.518518518518519e-05, "loss": 0.2944, "step": 1102 }, { "epoch": 0.36766666666666664, "grad_norm": 1.2115917205810547, "learning_rate": 3.516666666666667e-05, "loss": 0.3624, "step": 1103 }, { "epoch": 0.368, "grad_norm": 1.208378553390503, "learning_rate": 3.514814814814815e-05, "loss": 0.3425, "step": 1104 }, { "epoch": 0.36833333333333335, "grad_norm": 1.372703194618225, "learning_rate": 3.512962962962963e-05, "loss": 0.3268, "step": 1105 }, { "epoch": 0.36866666666666664, "grad_norm": 1.1570706367492676, "learning_rate": 3.511111111111111e-05, "loss": 0.29, "step": 1106 }, { "epoch": 0.369, "grad_norm": 1.2996251583099365, "learning_rate": 3.509259259259259e-05, "loss": 0.3496, "step": 1107 }, { "epoch": 0.36933333333333335, "grad_norm": 1.3695014715194702, "learning_rate": 3.5074074074074074e-05, "loss": 0.3392, "step": 1108 }, { "epoch": 0.36966666666666664, "grad_norm": 1.364058494567871, "learning_rate": 3.505555555555556e-05, "loss": 0.3255, "step": 1109 }, { "epoch": 0.37, "grad_norm": 1.1595008373260498, "learning_rate": 3.503703703703704e-05, "loss": 0.2789, "step": 1110 }, { "epoch": 0.37033333333333335, "grad_norm": 1.1646687984466553, "learning_rate": 3.501851851851852e-05, "loss": 0.3033, "step": 1111 }, { "epoch": 0.37066666666666664, "grad_norm": 1.0601829290390015, "learning_rate": 3.5e-05, "loss": 0.2465, "step": 1112 }, { "epoch": 0.371, "grad_norm": 1.4330965280532837, "learning_rate": 3.4981481481481484e-05, "loss": 0.3674, "step": 1113 }, { "epoch": 0.37133333333333335, "grad_norm": 1.6141996383666992, "learning_rate": 3.4962962962962965e-05, "loss": 0.3707, "step": 1114 }, { "epoch": 0.37166666666666665, "grad_norm": 1.3331483602523804, "learning_rate": 3.4944444444444446e-05, "loss": 0.3373, "step": 1115 }, { "epoch": 0.372, "grad_norm": 1.3580536842346191, "learning_rate": 3.492592592592593e-05, "loss": 0.3529, "step": 1116 }, { "epoch": 0.37233333333333335, "grad_norm": 1.71631920337677, "learning_rate": 3.490740740740741e-05, "loss": 0.2838, "step": 1117 }, { "epoch": 0.37266666666666665, "grad_norm": 1.353417992591858, "learning_rate": 3.4888888888888895e-05, "loss": 0.3917, "step": 1118 }, { "epoch": 0.373, "grad_norm": 0.997871458530426, "learning_rate": 3.487037037037037e-05, "loss": 0.2708, "step": 1119 }, { "epoch": 0.37333333333333335, "grad_norm": 2.0954196453094482, "learning_rate": 3.485185185185185e-05, "loss": 0.3436, "step": 1120 }, { "epoch": 0.37366666666666665, "grad_norm": 1.30576753616333, "learning_rate": 3.483333333333334e-05, "loss": 0.3133, "step": 1121 }, { "epoch": 0.374, "grad_norm": 1.1875780820846558, "learning_rate": 3.481481481481482e-05, "loss": 0.2768, "step": 1122 }, { "epoch": 0.37433333333333335, "grad_norm": 1.3447662591934204, "learning_rate": 3.47962962962963e-05, "loss": 0.3491, "step": 1123 }, { "epoch": 0.37466666666666665, "grad_norm": 1.4046446084976196, "learning_rate": 3.477777777777778e-05, "loss": 0.3352, "step": 1124 }, { "epoch": 0.375, "grad_norm": 1.3614153861999512, "learning_rate": 3.475925925925926e-05, "loss": 0.3922, "step": 1125 }, { "epoch": 0.37533333333333335, "grad_norm": 1.313892126083374, "learning_rate": 3.474074074074074e-05, "loss": 0.3317, "step": 1126 }, { "epoch": 0.37566666666666665, "grad_norm": 1.3579307794570923, "learning_rate": 3.472222222222222e-05, "loss": 0.358, "step": 1127 }, { "epoch": 0.376, "grad_norm": 1.4795989990234375, "learning_rate": 3.47037037037037e-05, "loss": 0.3686, "step": 1128 }, { "epoch": 0.37633333333333335, "grad_norm": 1.489582896232605, "learning_rate": 3.468518518518519e-05, "loss": 0.4085, "step": 1129 }, { "epoch": 0.37666666666666665, "grad_norm": 1.293110966682434, "learning_rate": 3.466666666666667e-05, "loss": 0.3001, "step": 1130 }, { "epoch": 0.377, "grad_norm": 1.4047528505325317, "learning_rate": 3.464814814814815e-05, "loss": 0.3711, "step": 1131 }, { "epoch": 0.37733333333333335, "grad_norm": 1.289689302444458, "learning_rate": 3.4629629629629626e-05, "loss": 0.3209, "step": 1132 }, { "epoch": 0.37766666666666665, "grad_norm": 1.2558592557907104, "learning_rate": 3.4611111111111114e-05, "loss": 0.3533, "step": 1133 }, { "epoch": 0.378, "grad_norm": 1.2834080457687378, "learning_rate": 3.4592592592592594e-05, "loss": 0.3353, "step": 1134 }, { "epoch": 0.37833333333333335, "grad_norm": 1.4345370531082153, "learning_rate": 3.4574074074074075e-05, "loss": 0.3926, "step": 1135 }, { "epoch": 0.37866666666666665, "grad_norm": 1.4481878280639648, "learning_rate": 3.4555555555555556e-05, "loss": 0.3404, "step": 1136 }, { "epoch": 0.379, "grad_norm": 1.1916624307632446, "learning_rate": 3.453703703703704e-05, "loss": 0.3342, "step": 1137 }, { "epoch": 0.37933333333333336, "grad_norm": 1.2278419733047485, "learning_rate": 3.4518518518518524e-05, "loss": 0.3098, "step": 1138 }, { "epoch": 0.37966666666666665, "grad_norm": 1.4090250730514526, "learning_rate": 3.45e-05, "loss": 0.3341, "step": 1139 }, { "epoch": 0.38, "grad_norm": 1.6617376804351807, "learning_rate": 3.448148148148148e-05, "loss": 0.3945, "step": 1140 }, { "epoch": 0.38033333333333336, "grad_norm": 1.4314631223678589, "learning_rate": 3.446296296296297e-05, "loss": 0.3623, "step": 1141 }, { "epoch": 0.38066666666666665, "grad_norm": 1.411205768585205, "learning_rate": 3.444444444444445e-05, "loss": 0.3781, "step": 1142 }, { "epoch": 0.381, "grad_norm": 1.3415881395339966, "learning_rate": 3.442592592592593e-05, "loss": 0.3193, "step": 1143 }, { "epoch": 0.38133333333333336, "grad_norm": 1.4212307929992676, "learning_rate": 3.440740740740741e-05, "loss": 0.3254, "step": 1144 }, { "epoch": 0.38166666666666665, "grad_norm": 1.4112255573272705, "learning_rate": 3.438888888888889e-05, "loss": 0.2991, "step": 1145 }, { "epoch": 0.382, "grad_norm": 1.3234516382217407, "learning_rate": 3.437037037037037e-05, "loss": 0.3207, "step": 1146 }, { "epoch": 0.38233333333333336, "grad_norm": 1.213474988937378, "learning_rate": 3.435185185185185e-05, "loss": 0.3056, "step": 1147 }, { "epoch": 0.38266666666666665, "grad_norm": 1.1833276748657227, "learning_rate": 3.433333333333333e-05, "loss": 0.3457, "step": 1148 }, { "epoch": 0.383, "grad_norm": 1.2908787727355957, "learning_rate": 3.431481481481482e-05, "loss": 0.2864, "step": 1149 }, { "epoch": 0.38333333333333336, "grad_norm": 1.4967849254608154, "learning_rate": 3.42962962962963e-05, "loss": 0.3634, "step": 1150 }, { "epoch": 0.38366666666666666, "grad_norm": 2.2769408226013184, "learning_rate": 3.427777777777778e-05, "loss": 0.3883, "step": 1151 }, { "epoch": 0.384, "grad_norm": 1.7115672826766968, "learning_rate": 3.425925925925926e-05, "loss": 0.4487, "step": 1152 }, { "epoch": 0.38433333333333336, "grad_norm": 1.2388008832931519, "learning_rate": 3.424074074074074e-05, "loss": 0.2988, "step": 1153 }, { "epoch": 0.38466666666666666, "grad_norm": 1.1698668003082275, "learning_rate": 3.4222222222222224e-05, "loss": 0.2616, "step": 1154 }, { "epoch": 0.385, "grad_norm": 1.5330984592437744, "learning_rate": 3.4203703703703704e-05, "loss": 0.4106, "step": 1155 }, { "epoch": 0.38533333333333336, "grad_norm": 1.437772274017334, "learning_rate": 3.4185185185185185e-05, "loss": 0.3269, "step": 1156 }, { "epoch": 0.38566666666666666, "grad_norm": 1.4650007486343384, "learning_rate": 3.4166666666666666e-05, "loss": 0.3716, "step": 1157 }, { "epoch": 0.386, "grad_norm": 1.2811371088027954, "learning_rate": 3.4148148148148153e-05, "loss": 0.334, "step": 1158 }, { "epoch": 0.3863333333333333, "grad_norm": 1.3718805313110352, "learning_rate": 3.4129629629629634e-05, "loss": 0.2792, "step": 1159 }, { "epoch": 0.38666666666666666, "grad_norm": 1.5492916107177734, "learning_rate": 3.411111111111111e-05, "loss": 0.3789, "step": 1160 }, { "epoch": 0.387, "grad_norm": 1.4927184581756592, "learning_rate": 3.4092592592592596e-05, "loss": 0.3885, "step": 1161 }, { "epoch": 0.3873333333333333, "grad_norm": 1.2432221174240112, "learning_rate": 3.4074074074074077e-05, "loss": 0.3182, "step": 1162 }, { "epoch": 0.38766666666666666, "grad_norm": 1.3809635639190674, "learning_rate": 3.405555555555556e-05, "loss": 0.3724, "step": 1163 }, { "epoch": 0.388, "grad_norm": 1.2722634077072144, "learning_rate": 3.403703703703704e-05, "loss": 0.3724, "step": 1164 }, { "epoch": 0.3883333333333333, "grad_norm": 1.2271523475646973, "learning_rate": 3.401851851851852e-05, "loss": 0.3408, "step": 1165 }, { "epoch": 0.38866666666666666, "grad_norm": 1.343644380569458, "learning_rate": 3.4000000000000007e-05, "loss": 0.3326, "step": 1166 }, { "epoch": 0.389, "grad_norm": 1.3846473693847656, "learning_rate": 3.398148148148148e-05, "loss": 0.3911, "step": 1167 }, { "epoch": 0.3893333333333333, "grad_norm": 1.2909481525421143, "learning_rate": 3.396296296296296e-05, "loss": 0.3353, "step": 1168 }, { "epoch": 0.38966666666666666, "grad_norm": 1.4288636445999146, "learning_rate": 3.394444444444444e-05, "loss": 0.3722, "step": 1169 }, { "epoch": 0.39, "grad_norm": 1.1444342136383057, "learning_rate": 3.392592592592593e-05, "loss": 0.2493, "step": 1170 }, { "epoch": 0.3903333333333333, "grad_norm": 1.32205331325531, "learning_rate": 3.390740740740741e-05, "loss": 0.3168, "step": 1171 }, { "epoch": 0.39066666666666666, "grad_norm": 1.4039489030838013, "learning_rate": 3.388888888888889e-05, "loss": 0.3561, "step": 1172 }, { "epoch": 0.391, "grad_norm": 1.453980565071106, "learning_rate": 3.387037037037037e-05, "loss": 0.3514, "step": 1173 }, { "epoch": 0.3913333333333333, "grad_norm": 1.457906723022461, "learning_rate": 3.385185185185185e-05, "loss": 0.2931, "step": 1174 }, { "epoch": 0.39166666666666666, "grad_norm": 1.3490992784500122, "learning_rate": 3.3833333333333334e-05, "loss": 0.3327, "step": 1175 }, { "epoch": 0.392, "grad_norm": 1.209001898765564, "learning_rate": 3.3814814814814814e-05, "loss": 0.3154, "step": 1176 }, { "epoch": 0.3923333333333333, "grad_norm": 1.292962670326233, "learning_rate": 3.3796296296296295e-05, "loss": 0.3423, "step": 1177 }, { "epoch": 0.39266666666666666, "grad_norm": 1.27810800075531, "learning_rate": 3.377777777777778e-05, "loss": 0.3279, "step": 1178 }, { "epoch": 0.393, "grad_norm": 1.2658330202102661, "learning_rate": 3.3759259259259263e-05, "loss": 0.2852, "step": 1179 }, { "epoch": 0.3933333333333333, "grad_norm": 1.3012218475341797, "learning_rate": 3.3740740740740744e-05, "loss": 0.3576, "step": 1180 }, { "epoch": 0.39366666666666666, "grad_norm": 1.4106616973876953, "learning_rate": 3.3722222222222225e-05, "loss": 0.392, "step": 1181 }, { "epoch": 0.394, "grad_norm": 1.1917288303375244, "learning_rate": 3.3703703703703706e-05, "loss": 0.3286, "step": 1182 }, { "epoch": 0.3943333333333333, "grad_norm": 1.3688360452651978, "learning_rate": 3.3685185185185187e-05, "loss": 0.3382, "step": 1183 }, { "epoch": 0.39466666666666667, "grad_norm": 1.3576997518539429, "learning_rate": 3.366666666666667e-05, "loss": 0.3129, "step": 1184 }, { "epoch": 0.395, "grad_norm": 1.3230671882629395, "learning_rate": 3.364814814814815e-05, "loss": 0.3335, "step": 1185 }, { "epoch": 0.3953333333333333, "grad_norm": 1.331338882446289, "learning_rate": 3.3629629629629636e-05, "loss": 0.3643, "step": 1186 }, { "epoch": 0.39566666666666667, "grad_norm": 1.4048796892166138, "learning_rate": 3.3611111111111116e-05, "loss": 0.3856, "step": 1187 }, { "epoch": 0.396, "grad_norm": 1.3133976459503174, "learning_rate": 3.359259259259259e-05, "loss": 0.3619, "step": 1188 }, { "epoch": 0.3963333333333333, "grad_norm": 1.4763586521148682, "learning_rate": 3.357407407407407e-05, "loss": 0.3496, "step": 1189 }, { "epoch": 0.39666666666666667, "grad_norm": 1.5139193534851074, "learning_rate": 3.355555555555556e-05, "loss": 0.3067, "step": 1190 }, { "epoch": 0.397, "grad_norm": 1.2287884950637817, "learning_rate": 3.353703703703704e-05, "loss": 0.323, "step": 1191 }, { "epoch": 0.3973333333333333, "grad_norm": 1.2147111892700195, "learning_rate": 3.351851851851852e-05, "loss": 0.2553, "step": 1192 }, { "epoch": 0.39766666666666667, "grad_norm": 1.1449735164642334, "learning_rate": 3.35e-05, "loss": 0.2944, "step": 1193 }, { "epoch": 0.398, "grad_norm": 1.374301791191101, "learning_rate": 3.348148148148148e-05, "loss": 0.2859, "step": 1194 }, { "epoch": 0.3983333333333333, "grad_norm": 1.173158884048462, "learning_rate": 3.346296296296296e-05, "loss": 0.2861, "step": 1195 }, { "epoch": 0.39866666666666667, "grad_norm": 1.720590591430664, "learning_rate": 3.3444444444444443e-05, "loss": 0.3554, "step": 1196 }, { "epoch": 0.399, "grad_norm": 1.0962392091751099, "learning_rate": 3.3425925925925924e-05, "loss": 0.3091, "step": 1197 }, { "epoch": 0.3993333333333333, "grad_norm": 1.3953585624694824, "learning_rate": 3.340740740740741e-05, "loss": 0.296, "step": 1198 }, { "epoch": 0.39966666666666667, "grad_norm": 1.168837308883667, "learning_rate": 3.338888888888889e-05, "loss": 0.3096, "step": 1199 }, { "epoch": 0.4, "grad_norm": 1.3151252269744873, "learning_rate": 3.337037037037037e-05, "loss": 0.3446, "step": 1200 }, { "epoch": 0.4003333333333333, "grad_norm": 1.2708085775375366, "learning_rate": 3.3351851851851854e-05, "loss": 0.2491, "step": 1201 }, { "epoch": 0.40066666666666667, "grad_norm": 1.3287466764450073, "learning_rate": 3.3333333333333335e-05, "loss": 0.3077, "step": 1202 }, { "epoch": 0.401, "grad_norm": 1.3648910522460938, "learning_rate": 3.3314814814814816e-05, "loss": 0.3171, "step": 1203 }, { "epoch": 0.4013333333333333, "grad_norm": 1.4657703638076782, "learning_rate": 3.3296296296296296e-05, "loss": 0.3923, "step": 1204 }, { "epoch": 0.40166666666666667, "grad_norm": 1.1934144496917725, "learning_rate": 3.327777777777778e-05, "loss": 0.2773, "step": 1205 }, { "epoch": 0.402, "grad_norm": 1.2553868293762207, "learning_rate": 3.3259259259259265e-05, "loss": 0.2799, "step": 1206 }, { "epoch": 0.4023333333333333, "grad_norm": 1.3628332614898682, "learning_rate": 3.3240740740740746e-05, "loss": 0.2859, "step": 1207 }, { "epoch": 0.4026666666666667, "grad_norm": 1.2916998863220215, "learning_rate": 3.322222222222222e-05, "loss": 0.3185, "step": 1208 }, { "epoch": 0.403, "grad_norm": 1.42521333694458, "learning_rate": 3.32037037037037e-05, "loss": 0.3542, "step": 1209 }, { "epoch": 0.4033333333333333, "grad_norm": 1.422607183456421, "learning_rate": 3.318518518518519e-05, "loss": 0.4032, "step": 1210 }, { "epoch": 0.4036666666666667, "grad_norm": 1.650567650794983, "learning_rate": 3.316666666666667e-05, "loss": 0.3315, "step": 1211 }, { "epoch": 0.404, "grad_norm": 1.2101961374282837, "learning_rate": 3.314814814814815e-05, "loss": 0.3216, "step": 1212 }, { "epoch": 0.4043333333333333, "grad_norm": 1.379003882408142, "learning_rate": 3.312962962962963e-05, "loss": 0.375, "step": 1213 }, { "epoch": 0.4046666666666667, "grad_norm": 1.3828953504562378, "learning_rate": 3.311111111111112e-05, "loss": 0.4234, "step": 1214 }, { "epoch": 0.405, "grad_norm": 1.2310481071472168, "learning_rate": 3.309259259259259e-05, "loss": 0.3222, "step": 1215 }, { "epoch": 0.4053333333333333, "grad_norm": 1.138098955154419, "learning_rate": 3.307407407407407e-05, "loss": 0.2902, "step": 1216 }, { "epoch": 0.4056666666666667, "grad_norm": 1.2475906610488892, "learning_rate": 3.3055555555555553e-05, "loss": 0.2511, "step": 1217 }, { "epoch": 0.406, "grad_norm": 1.5216923952102661, "learning_rate": 3.303703703703704e-05, "loss": 0.3225, "step": 1218 }, { "epoch": 0.4063333333333333, "grad_norm": 1.3573172092437744, "learning_rate": 3.301851851851852e-05, "loss": 0.3624, "step": 1219 }, { "epoch": 0.4066666666666667, "grad_norm": 1.2531877756118774, "learning_rate": 3.3e-05, "loss": 0.3428, "step": 1220 }, { "epoch": 0.407, "grad_norm": 1.2263498306274414, "learning_rate": 3.298148148148148e-05, "loss": 0.3217, "step": 1221 }, { "epoch": 0.4073333333333333, "grad_norm": 1.5321907997131348, "learning_rate": 3.2962962962962964e-05, "loss": 0.3023, "step": 1222 }, { "epoch": 0.4076666666666667, "grad_norm": 1.4277921915054321, "learning_rate": 3.2944444444444445e-05, "loss": 0.3032, "step": 1223 }, { "epoch": 0.408, "grad_norm": 1.2472560405731201, "learning_rate": 3.2925925925925926e-05, "loss": 0.3173, "step": 1224 }, { "epoch": 0.4083333333333333, "grad_norm": 1.1488358974456787, "learning_rate": 3.2907407407407406e-05, "loss": 0.2607, "step": 1225 }, { "epoch": 0.4086666666666667, "grad_norm": 1.210424542427063, "learning_rate": 3.2888888888888894e-05, "loss": 0.3201, "step": 1226 }, { "epoch": 0.409, "grad_norm": 1.8057355880737305, "learning_rate": 3.2870370370370375e-05, "loss": 0.3661, "step": 1227 }, { "epoch": 0.4093333333333333, "grad_norm": 1.271549940109253, "learning_rate": 3.2851851851851856e-05, "loss": 0.3261, "step": 1228 }, { "epoch": 0.4096666666666667, "grad_norm": 1.2358571290969849, "learning_rate": 3.283333333333333e-05, "loss": 0.2953, "step": 1229 }, { "epoch": 0.41, "grad_norm": 1.2990944385528564, "learning_rate": 3.281481481481482e-05, "loss": 0.3033, "step": 1230 }, { "epoch": 0.4103333333333333, "grad_norm": 1.49687922000885, "learning_rate": 3.27962962962963e-05, "loss": 0.375, "step": 1231 }, { "epoch": 0.4106666666666667, "grad_norm": 1.057223916053772, "learning_rate": 3.277777777777778e-05, "loss": 0.267, "step": 1232 }, { "epoch": 0.411, "grad_norm": 1.398499608039856, "learning_rate": 3.275925925925926e-05, "loss": 0.3027, "step": 1233 }, { "epoch": 0.41133333333333333, "grad_norm": 1.3406695127487183, "learning_rate": 3.274074074074075e-05, "loss": 0.3725, "step": 1234 }, { "epoch": 0.4116666666666667, "grad_norm": 1.419496774673462, "learning_rate": 3.272222222222223e-05, "loss": 0.348, "step": 1235 }, { "epoch": 0.412, "grad_norm": 1.5485889911651611, "learning_rate": 3.27037037037037e-05, "loss": 0.4022, "step": 1236 }, { "epoch": 0.41233333333333333, "grad_norm": 1.2959764003753662, "learning_rate": 3.268518518518518e-05, "loss": 0.3821, "step": 1237 }, { "epoch": 0.4126666666666667, "grad_norm": 1.2219984531402588, "learning_rate": 3.266666666666667e-05, "loss": 0.2888, "step": 1238 }, { "epoch": 0.413, "grad_norm": 1.259722352027893, "learning_rate": 3.264814814814815e-05, "loss": 0.3498, "step": 1239 }, { "epoch": 0.41333333333333333, "grad_norm": 1.257016658782959, "learning_rate": 3.262962962962963e-05, "loss": 0.3015, "step": 1240 }, { "epoch": 0.4136666666666667, "grad_norm": 1.2367465496063232, "learning_rate": 3.261111111111111e-05, "loss": 0.2742, "step": 1241 }, { "epoch": 0.414, "grad_norm": 1.1874418258666992, "learning_rate": 3.25925925925926e-05, "loss": 0.2844, "step": 1242 }, { "epoch": 0.41433333333333333, "grad_norm": 1.706577181816101, "learning_rate": 3.2574074074074074e-05, "loss": 0.3626, "step": 1243 }, { "epoch": 0.4146666666666667, "grad_norm": 1.1454229354858398, "learning_rate": 3.2555555555555555e-05, "loss": 0.2802, "step": 1244 }, { "epoch": 0.415, "grad_norm": 1.410743236541748, "learning_rate": 3.2537037037037036e-05, "loss": 0.3806, "step": 1245 }, { "epoch": 0.41533333333333333, "grad_norm": 1.311240553855896, "learning_rate": 3.251851851851852e-05, "loss": 0.3108, "step": 1246 }, { "epoch": 0.4156666666666667, "grad_norm": 1.4041987657546997, "learning_rate": 3.2500000000000004e-05, "loss": 0.3697, "step": 1247 }, { "epoch": 0.416, "grad_norm": 1.1935088634490967, "learning_rate": 3.2481481481481485e-05, "loss": 0.3179, "step": 1248 }, { "epoch": 0.41633333333333333, "grad_norm": 1.1657696962356567, "learning_rate": 3.2462962962962965e-05, "loss": 0.3017, "step": 1249 }, { "epoch": 0.4166666666666667, "grad_norm": 1.3761823177337646, "learning_rate": 3.2444444444444446e-05, "loss": 0.2881, "step": 1250 }, { "epoch": 0.417, "grad_norm": 2.1889655590057373, "learning_rate": 3.242592592592593e-05, "loss": 0.2877, "step": 1251 }, { "epoch": 0.41733333333333333, "grad_norm": 1.3915610313415527, "learning_rate": 3.240740740740741e-05, "loss": 0.3214, "step": 1252 }, { "epoch": 0.4176666666666667, "grad_norm": 2.2810142040252686, "learning_rate": 3.238888888888889e-05, "loss": 0.3269, "step": 1253 }, { "epoch": 0.418, "grad_norm": 1.3012681007385254, "learning_rate": 3.2370370370370376e-05, "loss": 0.3141, "step": 1254 }, { "epoch": 0.41833333333333333, "grad_norm": 1.337235689163208, "learning_rate": 3.235185185185186e-05, "loss": 0.3788, "step": 1255 }, { "epoch": 0.4186666666666667, "grad_norm": 1.2843315601348877, "learning_rate": 3.233333333333333e-05, "loss": 0.3142, "step": 1256 }, { "epoch": 0.419, "grad_norm": 1.365087628364563, "learning_rate": 3.231481481481481e-05, "loss": 0.3031, "step": 1257 }, { "epoch": 0.41933333333333334, "grad_norm": 1.6005221605300903, "learning_rate": 3.22962962962963e-05, "loss": 0.3137, "step": 1258 }, { "epoch": 0.4196666666666667, "grad_norm": 1.17437744140625, "learning_rate": 3.227777777777778e-05, "loss": 0.292, "step": 1259 }, { "epoch": 0.42, "grad_norm": 1.2326277494430542, "learning_rate": 3.225925925925926e-05, "loss": 0.2733, "step": 1260 }, { "epoch": 0.42033333333333334, "grad_norm": 1.3126592636108398, "learning_rate": 3.224074074074074e-05, "loss": 0.3448, "step": 1261 }, { "epoch": 0.4206666666666667, "grad_norm": 2.3154373168945312, "learning_rate": 3.222222222222223e-05, "loss": 0.3375, "step": 1262 }, { "epoch": 0.421, "grad_norm": 1.3440665006637573, "learning_rate": 3.22037037037037e-05, "loss": 0.3093, "step": 1263 }, { "epoch": 0.42133333333333334, "grad_norm": 1.0816363096237183, "learning_rate": 3.2185185185185184e-05, "loss": 0.2594, "step": 1264 }, { "epoch": 0.4216666666666667, "grad_norm": 1.2021934986114502, "learning_rate": 3.2166666666666665e-05, "loss": 0.2714, "step": 1265 }, { "epoch": 0.422, "grad_norm": 1.3605766296386719, "learning_rate": 3.214814814814815e-05, "loss": 0.3457, "step": 1266 }, { "epoch": 0.42233333333333334, "grad_norm": 1.2555632591247559, "learning_rate": 3.212962962962963e-05, "loss": 0.2736, "step": 1267 }, { "epoch": 0.4226666666666667, "grad_norm": 1.2175118923187256, "learning_rate": 3.2111111111111114e-05, "loss": 0.3066, "step": 1268 }, { "epoch": 0.423, "grad_norm": 1.1053125858306885, "learning_rate": 3.2092592592592595e-05, "loss": 0.2791, "step": 1269 }, { "epoch": 0.42333333333333334, "grad_norm": 1.3448011875152588, "learning_rate": 3.2074074074074075e-05, "loss": 0.3762, "step": 1270 }, { "epoch": 0.4236666666666667, "grad_norm": 1.2361633777618408, "learning_rate": 3.2055555555555556e-05, "loss": 0.2688, "step": 1271 }, { "epoch": 0.424, "grad_norm": 1.163905143737793, "learning_rate": 3.203703703703704e-05, "loss": 0.2813, "step": 1272 }, { "epoch": 0.42433333333333334, "grad_norm": 1.4232393503189087, "learning_rate": 3.201851851851852e-05, "loss": 0.3675, "step": 1273 }, { "epoch": 0.4246666666666667, "grad_norm": 1.3182367086410522, "learning_rate": 3.2000000000000005e-05, "loss": 0.3599, "step": 1274 }, { "epoch": 0.425, "grad_norm": 1.3285682201385498, "learning_rate": 3.1981481481481486e-05, "loss": 0.3284, "step": 1275 }, { "epoch": 0.42533333333333334, "grad_norm": 1.3403418064117432, "learning_rate": 3.196296296296297e-05, "loss": 0.3361, "step": 1276 }, { "epoch": 0.4256666666666667, "grad_norm": 1.194331169128418, "learning_rate": 3.194444444444444e-05, "loss": 0.2899, "step": 1277 }, { "epoch": 0.426, "grad_norm": 1.3186957836151123, "learning_rate": 3.192592592592593e-05, "loss": 0.3482, "step": 1278 }, { "epoch": 0.42633333333333334, "grad_norm": 1.5927499532699585, "learning_rate": 3.190740740740741e-05, "loss": 0.3676, "step": 1279 }, { "epoch": 0.4266666666666667, "grad_norm": 1.2911031246185303, "learning_rate": 3.188888888888889e-05, "loss": 0.363, "step": 1280 }, { "epoch": 0.427, "grad_norm": 1.2698369026184082, "learning_rate": 3.187037037037037e-05, "loss": 0.3324, "step": 1281 }, { "epoch": 0.42733333333333334, "grad_norm": 1.447779655456543, "learning_rate": 3.185185185185185e-05, "loss": 0.2758, "step": 1282 }, { "epoch": 0.42766666666666664, "grad_norm": 1.4399187564849854, "learning_rate": 3.183333333333334e-05, "loss": 0.3142, "step": 1283 }, { "epoch": 0.428, "grad_norm": 1.0748909711837769, "learning_rate": 3.181481481481481e-05, "loss": 0.2866, "step": 1284 }, { "epoch": 0.42833333333333334, "grad_norm": 1.073938250541687, "learning_rate": 3.1796296296296294e-05, "loss": 0.2726, "step": 1285 }, { "epoch": 0.42866666666666664, "grad_norm": 1.9973044395446777, "learning_rate": 3.177777777777778e-05, "loss": 0.3124, "step": 1286 }, { "epoch": 0.429, "grad_norm": 1.3469796180725098, "learning_rate": 3.175925925925926e-05, "loss": 0.351, "step": 1287 }, { "epoch": 0.42933333333333334, "grad_norm": 1.4153450727462769, "learning_rate": 3.174074074074074e-05, "loss": 0.3518, "step": 1288 }, { "epoch": 0.42966666666666664, "grad_norm": 1.2307051420211792, "learning_rate": 3.1722222222222224e-05, "loss": 0.3092, "step": 1289 }, { "epoch": 0.43, "grad_norm": 1.214272141456604, "learning_rate": 3.1703703703703705e-05, "loss": 0.286, "step": 1290 }, { "epoch": 0.43033333333333335, "grad_norm": 1.20262610912323, "learning_rate": 3.1685185185185185e-05, "loss": 0.3441, "step": 1291 }, { "epoch": 0.43066666666666664, "grad_norm": 1.3520455360412598, "learning_rate": 3.1666666666666666e-05, "loss": 0.344, "step": 1292 }, { "epoch": 0.431, "grad_norm": 1.766294002532959, "learning_rate": 3.164814814814815e-05, "loss": 0.3369, "step": 1293 }, { "epoch": 0.43133333333333335, "grad_norm": 2.029533863067627, "learning_rate": 3.1629629629629634e-05, "loss": 0.3609, "step": 1294 }, { "epoch": 0.43166666666666664, "grad_norm": 1.1907929182052612, "learning_rate": 3.1611111111111115e-05, "loss": 0.3113, "step": 1295 }, { "epoch": 0.432, "grad_norm": 1.914631962776184, "learning_rate": 3.1592592592592596e-05, "loss": 0.4328, "step": 1296 }, { "epoch": 0.43233333333333335, "grad_norm": 1.4536421298980713, "learning_rate": 3.157407407407408e-05, "loss": 0.3263, "step": 1297 }, { "epoch": 0.43266666666666664, "grad_norm": 1.742464542388916, "learning_rate": 3.155555555555556e-05, "loss": 0.3452, "step": 1298 }, { "epoch": 0.433, "grad_norm": 1.3391237258911133, "learning_rate": 3.153703703703704e-05, "loss": 0.2995, "step": 1299 }, { "epoch": 0.43333333333333335, "grad_norm": 1.3630019426345825, "learning_rate": 3.151851851851852e-05, "loss": 0.3726, "step": 1300 }, { "epoch": 0.43366666666666664, "grad_norm": 1.3360670804977417, "learning_rate": 3.15e-05, "loss": 0.3647, "step": 1301 }, { "epoch": 0.434, "grad_norm": 1.4964908361434937, "learning_rate": 3.148148148148148e-05, "loss": 0.2782, "step": 1302 }, { "epoch": 0.43433333333333335, "grad_norm": 1.34764564037323, "learning_rate": 3.146296296296297e-05, "loss": 0.3662, "step": 1303 }, { "epoch": 0.43466666666666665, "grad_norm": 1.3717085123062134, "learning_rate": 3.144444444444445e-05, "loss": 0.3719, "step": 1304 }, { "epoch": 0.435, "grad_norm": 1.5210474729537964, "learning_rate": 3.142592592592592e-05, "loss": 0.4245, "step": 1305 }, { "epoch": 0.43533333333333335, "grad_norm": 1.6612187623977661, "learning_rate": 3.140740740740741e-05, "loss": 0.4282, "step": 1306 }, { "epoch": 0.43566666666666665, "grad_norm": 1.7016777992248535, "learning_rate": 3.138888888888889e-05, "loss": 0.3349, "step": 1307 }, { "epoch": 0.436, "grad_norm": 1.6802518367767334, "learning_rate": 3.137037037037037e-05, "loss": 0.3141, "step": 1308 }, { "epoch": 0.43633333333333335, "grad_norm": 2.4000046253204346, "learning_rate": 3.135185185185185e-05, "loss": 0.3325, "step": 1309 }, { "epoch": 0.43666666666666665, "grad_norm": 1.4784601926803589, "learning_rate": 3.1333333333333334e-05, "loss": 0.3049, "step": 1310 }, { "epoch": 0.437, "grad_norm": 1.630005121231079, "learning_rate": 3.131481481481482e-05, "loss": 0.3224, "step": 1311 }, { "epoch": 0.43733333333333335, "grad_norm": 1.3963704109191895, "learning_rate": 3.1296296296296295e-05, "loss": 0.3027, "step": 1312 }, { "epoch": 0.43766666666666665, "grad_norm": 2.303802013397217, "learning_rate": 3.1277777777777776e-05, "loss": 0.2847, "step": 1313 }, { "epoch": 0.438, "grad_norm": 1.1832516193389893, "learning_rate": 3.1259259259259264e-05, "loss": 0.3579, "step": 1314 }, { "epoch": 0.43833333333333335, "grad_norm": 1.4813835620880127, "learning_rate": 3.1240740740740744e-05, "loss": 0.3716, "step": 1315 }, { "epoch": 0.43866666666666665, "grad_norm": 2.1704001426696777, "learning_rate": 3.1222222222222225e-05, "loss": 0.3648, "step": 1316 }, { "epoch": 0.439, "grad_norm": 1.4701802730560303, "learning_rate": 3.1203703703703706e-05, "loss": 0.3652, "step": 1317 }, { "epoch": 0.43933333333333335, "grad_norm": 1.3754160404205322, "learning_rate": 3.118518518518519e-05, "loss": 0.2939, "step": 1318 }, { "epoch": 0.43966666666666665, "grad_norm": 1.4342671632766724, "learning_rate": 3.116666666666667e-05, "loss": 0.3745, "step": 1319 }, { "epoch": 0.44, "grad_norm": 1.3938649892807007, "learning_rate": 3.114814814814815e-05, "loss": 0.2953, "step": 1320 }, { "epoch": 0.44033333333333335, "grad_norm": 1.391393780708313, "learning_rate": 3.112962962962963e-05, "loss": 0.3196, "step": 1321 }, { "epoch": 0.44066666666666665, "grad_norm": 1.248563289642334, "learning_rate": 3.111111111111111e-05, "loss": 0.3165, "step": 1322 }, { "epoch": 0.441, "grad_norm": 1.1494781970977783, "learning_rate": 3.10925925925926e-05, "loss": 0.3299, "step": 1323 }, { "epoch": 0.44133333333333336, "grad_norm": 1.2400906085968018, "learning_rate": 3.107407407407408e-05, "loss": 0.2792, "step": 1324 }, { "epoch": 0.44166666666666665, "grad_norm": 1.3425542116165161, "learning_rate": 3.105555555555555e-05, "loss": 0.3149, "step": 1325 }, { "epoch": 0.442, "grad_norm": 1.3477575778961182, "learning_rate": 3.103703703703704e-05, "loss": 0.355, "step": 1326 }, { "epoch": 0.44233333333333336, "grad_norm": 1.313015341758728, "learning_rate": 3.101851851851852e-05, "loss": 0.3455, "step": 1327 }, { "epoch": 0.44266666666666665, "grad_norm": 2.502833366394043, "learning_rate": 3.1e-05, "loss": 0.3538, "step": 1328 }, { "epoch": 0.443, "grad_norm": 1.1024823188781738, "learning_rate": 3.098148148148148e-05, "loss": 0.2648, "step": 1329 }, { "epoch": 0.44333333333333336, "grad_norm": 1.304589033126831, "learning_rate": 3.096296296296296e-05, "loss": 0.3681, "step": 1330 }, { "epoch": 0.44366666666666665, "grad_norm": 1.2134301662445068, "learning_rate": 3.094444444444445e-05, "loss": 0.3392, "step": 1331 }, { "epoch": 0.444, "grad_norm": 1.2979830503463745, "learning_rate": 3.0925925925925924e-05, "loss": 0.2956, "step": 1332 }, { "epoch": 0.44433333333333336, "grad_norm": 1.2990505695343018, "learning_rate": 3.0907407407407405e-05, "loss": 0.3502, "step": 1333 }, { "epoch": 0.44466666666666665, "grad_norm": 1.2404588460922241, "learning_rate": 3.088888888888889e-05, "loss": 0.3004, "step": 1334 }, { "epoch": 0.445, "grad_norm": 1.2336517572402954, "learning_rate": 3.0870370370370374e-05, "loss": 0.2999, "step": 1335 }, { "epoch": 0.44533333333333336, "grad_norm": 1.4121935367584229, "learning_rate": 3.0851851851851854e-05, "loss": 0.4143, "step": 1336 }, { "epoch": 0.44566666666666666, "grad_norm": 1.5293573141098022, "learning_rate": 3.0833333333333335e-05, "loss": 0.3462, "step": 1337 }, { "epoch": 0.446, "grad_norm": 1.2020673751831055, "learning_rate": 3.0814814814814816e-05, "loss": 0.2971, "step": 1338 }, { "epoch": 0.44633333333333336, "grad_norm": 1.2633086442947388, "learning_rate": 3.07962962962963e-05, "loss": 0.3081, "step": 1339 }, { "epoch": 0.44666666666666666, "grad_norm": 1.1711537837982178, "learning_rate": 3.077777777777778e-05, "loss": 0.2639, "step": 1340 }, { "epoch": 0.447, "grad_norm": 1.5304292440414429, "learning_rate": 3.075925925925926e-05, "loss": 0.3811, "step": 1341 }, { "epoch": 0.44733333333333336, "grad_norm": 1.1833956241607666, "learning_rate": 3.074074074074074e-05, "loss": 0.2654, "step": 1342 }, { "epoch": 0.44766666666666666, "grad_norm": 1.3380838632583618, "learning_rate": 3.0722222222222227e-05, "loss": 0.337, "step": 1343 }, { "epoch": 0.448, "grad_norm": 1.3382307291030884, "learning_rate": 3.070370370370371e-05, "loss": 0.3167, "step": 1344 }, { "epoch": 0.4483333333333333, "grad_norm": 1.4100250005722046, "learning_rate": 3.068518518518519e-05, "loss": 0.3449, "step": 1345 }, { "epoch": 0.44866666666666666, "grad_norm": 1.2076665163040161, "learning_rate": 3.066666666666667e-05, "loss": 0.2768, "step": 1346 }, { "epoch": 0.449, "grad_norm": 1.7231465578079224, "learning_rate": 3.064814814814815e-05, "loss": 0.4216, "step": 1347 }, { "epoch": 0.4493333333333333, "grad_norm": 1.4446601867675781, "learning_rate": 3.062962962962963e-05, "loss": 0.3612, "step": 1348 }, { "epoch": 0.44966666666666666, "grad_norm": 1.1468433141708374, "learning_rate": 3.061111111111111e-05, "loss": 0.3229, "step": 1349 }, { "epoch": 0.45, "grad_norm": 1.542690396308899, "learning_rate": 3.059259259259259e-05, "loss": 0.3623, "step": 1350 }, { "epoch": 0.4503333333333333, "grad_norm": 1.2674552202224731, "learning_rate": 3.057407407407408e-05, "loss": 0.3036, "step": 1351 }, { "epoch": 0.45066666666666666, "grad_norm": 1.5266135931015015, "learning_rate": 3.055555555555556e-05, "loss": 0.4042, "step": 1352 }, { "epoch": 0.451, "grad_norm": 1.3288761377334595, "learning_rate": 3.0537037037037034e-05, "loss": 0.3654, "step": 1353 }, { "epoch": 0.4513333333333333, "grad_norm": 1.3868383169174194, "learning_rate": 3.0518518518518515e-05, "loss": 0.3316, "step": 1354 }, { "epoch": 0.45166666666666666, "grad_norm": 1.1661577224731445, "learning_rate": 3.05e-05, "loss": 0.3065, "step": 1355 }, { "epoch": 0.452, "grad_norm": 1.3198933601379395, "learning_rate": 3.0481481481481484e-05, "loss": 0.3576, "step": 1356 }, { "epoch": 0.4523333333333333, "grad_norm": 1.2684080600738525, "learning_rate": 3.0462962962962964e-05, "loss": 0.3025, "step": 1357 }, { "epoch": 0.45266666666666666, "grad_norm": 1.1674509048461914, "learning_rate": 3.044444444444445e-05, "loss": 0.2941, "step": 1358 }, { "epoch": 0.453, "grad_norm": 1.3995347023010254, "learning_rate": 3.042592592592593e-05, "loss": 0.3026, "step": 1359 }, { "epoch": 0.4533333333333333, "grad_norm": 1.3764044046401978, "learning_rate": 3.0407407407407407e-05, "loss": 0.3274, "step": 1360 }, { "epoch": 0.45366666666666666, "grad_norm": 1.0908697843551636, "learning_rate": 3.0388888888888887e-05, "loss": 0.2728, "step": 1361 }, { "epoch": 0.454, "grad_norm": 1.2327216863632202, "learning_rate": 3.037037037037037e-05, "loss": 0.2655, "step": 1362 }, { "epoch": 0.4543333333333333, "grad_norm": 2.35569429397583, "learning_rate": 3.0351851851851852e-05, "loss": 0.3685, "step": 1363 }, { "epoch": 0.45466666666666666, "grad_norm": 1.4257335662841797, "learning_rate": 3.0333333333333337e-05, "loss": 0.4052, "step": 1364 }, { "epoch": 0.455, "grad_norm": 1.1034331321716309, "learning_rate": 3.0314814814814817e-05, "loss": 0.2548, "step": 1365 }, { "epoch": 0.4553333333333333, "grad_norm": 1.0498321056365967, "learning_rate": 3.02962962962963e-05, "loss": 0.2707, "step": 1366 }, { "epoch": 0.45566666666666666, "grad_norm": 1.060611367225647, "learning_rate": 3.0277777777777776e-05, "loss": 0.2568, "step": 1367 }, { "epoch": 0.456, "grad_norm": 1.3205080032348633, "learning_rate": 3.025925925925926e-05, "loss": 0.3471, "step": 1368 }, { "epoch": 0.4563333333333333, "grad_norm": 1.2676697969436646, "learning_rate": 3.024074074074074e-05, "loss": 0.2766, "step": 1369 }, { "epoch": 0.45666666666666667, "grad_norm": 1.2587288618087769, "learning_rate": 3.0222222222222225e-05, "loss": 0.3377, "step": 1370 }, { "epoch": 0.457, "grad_norm": 1.4589860439300537, "learning_rate": 3.0203703703703705e-05, "loss": 0.2951, "step": 1371 }, { "epoch": 0.4573333333333333, "grad_norm": 1.1985411643981934, "learning_rate": 3.018518518518519e-05, "loss": 0.2703, "step": 1372 }, { "epoch": 0.45766666666666667, "grad_norm": 1.1373658180236816, "learning_rate": 3.016666666666667e-05, "loss": 0.2473, "step": 1373 }, { "epoch": 0.458, "grad_norm": 1.2547950744628906, "learning_rate": 3.0148148148148148e-05, "loss": 0.2939, "step": 1374 }, { "epoch": 0.4583333333333333, "grad_norm": 1.1848363876342773, "learning_rate": 3.012962962962963e-05, "loss": 0.3029, "step": 1375 }, { "epoch": 0.45866666666666667, "grad_norm": 1.182063102722168, "learning_rate": 3.0111111111111113e-05, "loss": 0.3495, "step": 1376 }, { "epoch": 0.459, "grad_norm": 1.0706794261932373, "learning_rate": 3.0092592592592593e-05, "loss": 0.2785, "step": 1377 }, { "epoch": 0.4593333333333333, "grad_norm": 1.2743030786514282, "learning_rate": 3.0074074074074078e-05, "loss": 0.2893, "step": 1378 }, { "epoch": 0.45966666666666667, "grad_norm": 1.2689483165740967, "learning_rate": 3.005555555555556e-05, "loss": 0.3606, "step": 1379 }, { "epoch": 0.46, "grad_norm": 1.1840660572052002, "learning_rate": 3.0037037037037036e-05, "loss": 0.2764, "step": 1380 }, { "epoch": 0.4603333333333333, "grad_norm": 1.262755274772644, "learning_rate": 3.0018518518518517e-05, "loss": 0.3191, "step": 1381 }, { "epoch": 0.46066666666666667, "grad_norm": 1.342287540435791, "learning_rate": 3e-05, "loss": 0.354, "step": 1382 }, { "epoch": 0.461, "grad_norm": 1.2277249097824097, "learning_rate": 2.998148148148148e-05, "loss": 0.3038, "step": 1383 }, { "epoch": 0.4613333333333333, "grad_norm": 1.2405732870101929, "learning_rate": 2.9962962962962966e-05, "loss": 0.3244, "step": 1384 }, { "epoch": 0.46166666666666667, "grad_norm": 1.2307440042495728, "learning_rate": 2.9944444444444446e-05, "loss": 0.3236, "step": 1385 }, { "epoch": 0.462, "grad_norm": 1.443271279335022, "learning_rate": 2.992592592592593e-05, "loss": 0.3175, "step": 1386 }, { "epoch": 0.4623333333333333, "grad_norm": 1.2614922523498535, "learning_rate": 2.9907407407407405e-05, "loss": 0.3891, "step": 1387 }, { "epoch": 0.46266666666666667, "grad_norm": 1.3766247034072876, "learning_rate": 2.988888888888889e-05, "loss": 0.3911, "step": 1388 }, { "epoch": 0.463, "grad_norm": 1.2880407571792603, "learning_rate": 2.987037037037037e-05, "loss": 0.3681, "step": 1389 }, { "epoch": 0.4633333333333333, "grad_norm": 1.2187671661376953, "learning_rate": 2.9851851851851854e-05, "loss": 0.3476, "step": 1390 }, { "epoch": 0.46366666666666667, "grad_norm": 1.2400803565979004, "learning_rate": 2.9833333333333335e-05, "loss": 0.2945, "step": 1391 }, { "epoch": 0.464, "grad_norm": 1.3185800313949585, "learning_rate": 2.981481481481482e-05, "loss": 0.2691, "step": 1392 }, { "epoch": 0.4643333333333333, "grad_norm": 1.309971809387207, "learning_rate": 2.97962962962963e-05, "loss": 0.3146, "step": 1393 }, { "epoch": 0.4646666666666667, "grad_norm": 1.179674506187439, "learning_rate": 2.9777777777777777e-05, "loss": 0.2472, "step": 1394 }, { "epoch": 0.465, "grad_norm": 1.2416373491287231, "learning_rate": 2.9759259259259258e-05, "loss": 0.3113, "step": 1395 }, { "epoch": 0.4653333333333333, "grad_norm": 1.4975022077560425, "learning_rate": 2.9740740740740742e-05, "loss": 0.438, "step": 1396 }, { "epoch": 0.4656666666666667, "grad_norm": 1.3346996307373047, "learning_rate": 2.9722222222222223e-05, "loss": 0.3393, "step": 1397 }, { "epoch": 0.466, "grad_norm": 1.131181001663208, "learning_rate": 2.9703703703703707e-05, "loss": 0.2818, "step": 1398 }, { "epoch": 0.4663333333333333, "grad_norm": 1.473502516746521, "learning_rate": 2.9685185185185188e-05, "loss": 0.3504, "step": 1399 }, { "epoch": 0.4666666666666667, "grad_norm": 1.4740447998046875, "learning_rate": 2.9666666666666672e-05, "loss": 0.3279, "step": 1400 }, { "epoch": 0.467, "grad_norm": 1.3544232845306396, "learning_rate": 2.9648148148148146e-05, "loss": 0.3499, "step": 1401 }, { "epoch": 0.4673333333333333, "grad_norm": 1.3495687246322632, "learning_rate": 2.962962962962963e-05, "loss": 0.3455, "step": 1402 }, { "epoch": 0.4676666666666667, "grad_norm": 1.2778713703155518, "learning_rate": 2.961111111111111e-05, "loss": 0.3053, "step": 1403 }, { "epoch": 0.468, "grad_norm": 1.242203712463379, "learning_rate": 2.9592592592592595e-05, "loss": 0.3181, "step": 1404 }, { "epoch": 0.4683333333333333, "grad_norm": 1.225061297416687, "learning_rate": 2.9574074074074076e-05, "loss": 0.3322, "step": 1405 }, { "epoch": 0.4686666666666667, "grad_norm": 1.209337592124939, "learning_rate": 2.955555555555556e-05, "loss": 0.3377, "step": 1406 }, { "epoch": 0.469, "grad_norm": 1.3530369997024536, "learning_rate": 2.953703703703704e-05, "loss": 0.3905, "step": 1407 }, { "epoch": 0.4693333333333333, "grad_norm": 1.11212158203125, "learning_rate": 2.9518518518518518e-05, "loss": 0.2859, "step": 1408 }, { "epoch": 0.4696666666666667, "grad_norm": 1.2247726917266846, "learning_rate": 2.95e-05, "loss": 0.3013, "step": 1409 }, { "epoch": 0.47, "grad_norm": 1.6114306449890137, "learning_rate": 2.9481481481481483e-05, "loss": 0.3581, "step": 1410 }, { "epoch": 0.4703333333333333, "grad_norm": 1.224010705947876, "learning_rate": 2.9462962962962964e-05, "loss": 0.2936, "step": 1411 }, { "epoch": 0.4706666666666667, "grad_norm": 1.4975155591964722, "learning_rate": 2.9444444444444448e-05, "loss": 0.3186, "step": 1412 }, { "epoch": 0.471, "grad_norm": 1.2867941856384277, "learning_rate": 2.942592592592593e-05, "loss": 0.2708, "step": 1413 }, { "epoch": 0.4713333333333333, "grad_norm": 1.246773600578308, "learning_rate": 2.9407407407407413e-05, "loss": 0.3267, "step": 1414 }, { "epoch": 0.4716666666666667, "grad_norm": 1.335707187652588, "learning_rate": 2.9388888888888887e-05, "loss": 0.3342, "step": 1415 }, { "epoch": 0.472, "grad_norm": 1.1888049840927124, "learning_rate": 2.937037037037037e-05, "loss": 0.3087, "step": 1416 }, { "epoch": 0.4723333333333333, "grad_norm": 1.17875075340271, "learning_rate": 2.9351851851851852e-05, "loss": 0.2697, "step": 1417 }, { "epoch": 0.4726666666666667, "grad_norm": 1.1846857070922852, "learning_rate": 2.9333333333333336e-05, "loss": 0.3313, "step": 1418 }, { "epoch": 0.473, "grad_norm": 1.2203112840652466, "learning_rate": 2.9314814814814817e-05, "loss": 0.3013, "step": 1419 }, { "epoch": 0.47333333333333333, "grad_norm": 1.433706283569336, "learning_rate": 2.92962962962963e-05, "loss": 0.3654, "step": 1420 }, { "epoch": 0.4736666666666667, "grad_norm": 1.1950478553771973, "learning_rate": 2.927777777777778e-05, "loss": 0.3213, "step": 1421 }, { "epoch": 0.474, "grad_norm": 1.1696751117706299, "learning_rate": 2.925925925925926e-05, "loss": 0.3319, "step": 1422 }, { "epoch": 0.47433333333333333, "grad_norm": 1.300218939781189, "learning_rate": 2.924074074074074e-05, "loss": 0.393, "step": 1423 }, { "epoch": 0.4746666666666667, "grad_norm": 1.312639594078064, "learning_rate": 2.9222222222222224e-05, "loss": 0.3362, "step": 1424 }, { "epoch": 0.475, "grad_norm": 1.1032116413116455, "learning_rate": 2.9203703703703705e-05, "loss": 0.3317, "step": 1425 }, { "epoch": 0.47533333333333333, "grad_norm": 1.0733202695846558, "learning_rate": 2.918518518518519e-05, "loss": 0.2963, "step": 1426 }, { "epoch": 0.4756666666666667, "grad_norm": 1.2385832071304321, "learning_rate": 2.916666666666667e-05, "loss": 0.3134, "step": 1427 }, { "epoch": 0.476, "grad_norm": 1.0835086107254028, "learning_rate": 2.914814814814815e-05, "loss": 0.2682, "step": 1428 }, { "epoch": 0.47633333333333333, "grad_norm": 1.4627580642700195, "learning_rate": 2.9129629629629628e-05, "loss": 0.4014, "step": 1429 }, { "epoch": 0.4766666666666667, "grad_norm": 1.6688096523284912, "learning_rate": 2.9111111111111112e-05, "loss": 0.3514, "step": 1430 }, { "epoch": 0.477, "grad_norm": 1.2189342975616455, "learning_rate": 2.9092592592592593e-05, "loss": 0.3113, "step": 1431 }, { "epoch": 0.47733333333333333, "grad_norm": 2.774292469024658, "learning_rate": 2.9074074074074077e-05, "loss": 0.3339, "step": 1432 }, { "epoch": 0.4776666666666667, "grad_norm": 1.4413480758666992, "learning_rate": 2.9055555555555558e-05, "loss": 0.3266, "step": 1433 }, { "epoch": 0.478, "grad_norm": 1.1136285066604614, "learning_rate": 2.9037037037037042e-05, "loss": 0.3188, "step": 1434 }, { "epoch": 0.47833333333333333, "grad_norm": 1.4369518756866455, "learning_rate": 2.9018518518518523e-05, "loss": 0.3174, "step": 1435 }, { "epoch": 0.4786666666666667, "grad_norm": 1.121774435043335, "learning_rate": 2.9e-05, "loss": 0.2683, "step": 1436 }, { "epoch": 0.479, "grad_norm": 1.476367712020874, "learning_rate": 2.898148148148148e-05, "loss": 0.3649, "step": 1437 }, { "epoch": 0.47933333333333333, "grad_norm": 3.723578691482544, "learning_rate": 2.8962962962962965e-05, "loss": 0.2983, "step": 1438 }, { "epoch": 0.4796666666666667, "grad_norm": 1.183883547782898, "learning_rate": 2.8944444444444446e-05, "loss": 0.2876, "step": 1439 }, { "epoch": 0.48, "grad_norm": 1.4269229173660278, "learning_rate": 2.892592592592593e-05, "loss": 0.3635, "step": 1440 }, { "epoch": 0.48033333333333333, "grad_norm": 1.3004590272903442, "learning_rate": 2.890740740740741e-05, "loss": 0.3151, "step": 1441 }, { "epoch": 0.4806666666666667, "grad_norm": 1.383721947669983, "learning_rate": 2.8888888888888888e-05, "loss": 0.3826, "step": 1442 }, { "epoch": 0.481, "grad_norm": 1.2294740676879883, "learning_rate": 2.887037037037037e-05, "loss": 0.3172, "step": 1443 }, { "epoch": 0.48133333333333334, "grad_norm": 1.5366986989974976, "learning_rate": 2.8851851851851853e-05, "loss": 0.4267, "step": 1444 }, { "epoch": 0.4816666666666667, "grad_norm": 1.90938138961792, "learning_rate": 2.8833333333333334e-05, "loss": 0.3637, "step": 1445 }, { "epoch": 0.482, "grad_norm": 1.1772290468215942, "learning_rate": 2.8814814814814818e-05, "loss": 0.3076, "step": 1446 }, { "epoch": 0.48233333333333334, "grad_norm": 1.1554288864135742, "learning_rate": 2.87962962962963e-05, "loss": 0.2402, "step": 1447 }, { "epoch": 0.4826666666666667, "grad_norm": 1.2633064985275269, "learning_rate": 2.877777777777778e-05, "loss": 0.3329, "step": 1448 }, { "epoch": 0.483, "grad_norm": 1.2321231365203857, "learning_rate": 2.8759259259259257e-05, "loss": 0.3074, "step": 1449 }, { "epoch": 0.48333333333333334, "grad_norm": 1.156182050704956, "learning_rate": 2.874074074074074e-05, "loss": 0.2835, "step": 1450 }, { "epoch": 0.4836666666666667, "grad_norm": 1.3381316661834717, "learning_rate": 2.8722222222222222e-05, "loss": 0.3476, "step": 1451 }, { "epoch": 0.484, "grad_norm": 1.2112376689910889, "learning_rate": 2.8703703703703706e-05, "loss": 0.2773, "step": 1452 }, { "epoch": 0.48433333333333334, "grad_norm": 1.2340188026428223, "learning_rate": 2.8685185185185187e-05, "loss": 0.289, "step": 1453 }, { "epoch": 0.4846666666666667, "grad_norm": 1.2579541206359863, "learning_rate": 2.8666666666666668e-05, "loss": 0.313, "step": 1454 }, { "epoch": 0.485, "grad_norm": 1.241226077079773, "learning_rate": 2.8648148148148152e-05, "loss": 0.2794, "step": 1455 }, { "epoch": 0.48533333333333334, "grad_norm": 1.2922860383987427, "learning_rate": 2.862962962962963e-05, "loss": 0.3087, "step": 1456 }, { "epoch": 0.4856666666666667, "grad_norm": 1.7174919843673706, "learning_rate": 2.861111111111111e-05, "loss": 0.283, "step": 1457 }, { "epoch": 0.486, "grad_norm": 1.0002614259719849, "learning_rate": 2.8592592592592594e-05, "loss": 0.2754, "step": 1458 }, { "epoch": 0.48633333333333334, "grad_norm": 1.2910239696502686, "learning_rate": 2.8574074074074075e-05, "loss": 0.2671, "step": 1459 }, { "epoch": 0.4866666666666667, "grad_norm": 2.047118663787842, "learning_rate": 2.855555555555556e-05, "loss": 0.3482, "step": 1460 }, { "epoch": 0.487, "grad_norm": 1.1803579330444336, "learning_rate": 2.853703703703704e-05, "loss": 0.2532, "step": 1461 }, { "epoch": 0.48733333333333334, "grad_norm": 1.1615252494812012, "learning_rate": 2.851851851851852e-05, "loss": 0.3177, "step": 1462 }, { "epoch": 0.4876666666666667, "grad_norm": 1.30791437625885, "learning_rate": 2.8499999999999998e-05, "loss": 0.31, "step": 1463 }, { "epoch": 0.488, "grad_norm": 1.5526585578918457, "learning_rate": 2.8481481481481482e-05, "loss": 0.3354, "step": 1464 }, { "epoch": 0.48833333333333334, "grad_norm": 1.108884572982788, "learning_rate": 2.8462962962962963e-05, "loss": 0.2675, "step": 1465 }, { "epoch": 0.4886666666666667, "grad_norm": 1.4003392457962036, "learning_rate": 2.8444444444444447e-05, "loss": 0.3844, "step": 1466 }, { "epoch": 0.489, "grad_norm": 1.3697230815887451, "learning_rate": 2.8425925925925928e-05, "loss": 0.3385, "step": 1467 }, { "epoch": 0.48933333333333334, "grad_norm": 1.411913514137268, "learning_rate": 2.840740740740741e-05, "loss": 0.4013, "step": 1468 }, { "epoch": 0.48966666666666664, "grad_norm": 1.2229613065719604, "learning_rate": 2.8388888888888893e-05, "loss": 0.2815, "step": 1469 }, { "epoch": 0.49, "grad_norm": 1.2119219303131104, "learning_rate": 2.837037037037037e-05, "loss": 0.2537, "step": 1470 }, { "epoch": 0.49033333333333334, "grad_norm": 2.0135629177093506, "learning_rate": 2.835185185185185e-05, "loss": 0.3491, "step": 1471 }, { "epoch": 0.49066666666666664, "grad_norm": 1.0925936698913574, "learning_rate": 2.8333333333333335e-05, "loss": 0.2537, "step": 1472 }, { "epoch": 0.491, "grad_norm": 1.1854288578033447, "learning_rate": 2.8314814814814816e-05, "loss": 0.3186, "step": 1473 }, { "epoch": 0.49133333333333334, "grad_norm": 1.5400022268295288, "learning_rate": 2.8296296296296297e-05, "loss": 0.3173, "step": 1474 }, { "epoch": 0.49166666666666664, "grad_norm": 1.5304557085037231, "learning_rate": 2.827777777777778e-05, "loss": 0.3168, "step": 1475 }, { "epoch": 0.492, "grad_norm": 4.108854293823242, "learning_rate": 2.8259259259259262e-05, "loss": 0.3148, "step": 1476 }, { "epoch": 0.49233333333333335, "grad_norm": 1.3374249935150146, "learning_rate": 2.824074074074074e-05, "loss": 0.3366, "step": 1477 }, { "epoch": 0.49266666666666664, "grad_norm": 1.2893925905227661, "learning_rate": 2.8222222222222223e-05, "loss": 0.2685, "step": 1478 }, { "epoch": 0.493, "grad_norm": 1.2790155410766602, "learning_rate": 2.8203703703703704e-05, "loss": 0.3289, "step": 1479 }, { "epoch": 0.49333333333333335, "grad_norm": 2.0232150554656982, "learning_rate": 2.8185185185185185e-05, "loss": 0.2403, "step": 1480 }, { "epoch": 0.49366666666666664, "grad_norm": 1.3600914478302002, "learning_rate": 2.816666666666667e-05, "loss": 0.3932, "step": 1481 }, { "epoch": 0.494, "grad_norm": 1.1035760641098022, "learning_rate": 2.814814814814815e-05, "loss": 0.254, "step": 1482 }, { "epoch": 0.49433333333333335, "grad_norm": 2.872220277786255, "learning_rate": 2.8129629629629634e-05, "loss": 0.2667, "step": 1483 }, { "epoch": 0.49466666666666664, "grad_norm": 1.2034220695495605, "learning_rate": 2.811111111111111e-05, "loss": 0.2772, "step": 1484 }, { "epoch": 0.495, "grad_norm": 1.424274206161499, "learning_rate": 2.8092592592592592e-05, "loss": 0.3602, "step": 1485 }, { "epoch": 0.49533333333333335, "grad_norm": 1.2699123620986938, "learning_rate": 2.8074074074074076e-05, "loss": 0.3362, "step": 1486 }, { "epoch": 0.49566666666666664, "grad_norm": 1.281512975692749, "learning_rate": 2.8055555555555557e-05, "loss": 0.2962, "step": 1487 }, { "epoch": 0.496, "grad_norm": 2.509653329849243, "learning_rate": 2.8037037037037038e-05, "loss": 0.3732, "step": 1488 }, { "epoch": 0.49633333333333335, "grad_norm": 1.2363303899765015, "learning_rate": 2.8018518518518522e-05, "loss": 0.378, "step": 1489 }, { "epoch": 0.49666666666666665, "grad_norm": 1.356900691986084, "learning_rate": 2.8000000000000003e-05, "loss": 0.2891, "step": 1490 }, { "epoch": 0.497, "grad_norm": 1.3257609605789185, "learning_rate": 2.798148148148148e-05, "loss": 0.3558, "step": 1491 }, { "epoch": 0.49733333333333335, "grad_norm": 1.2962430715560913, "learning_rate": 2.7962962962962965e-05, "loss": 0.3697, "step": 1492 }, { "epoch": 0.49766666666666665, "grad_norm": 2.9671995639801025, "learning_rate": 2.7944444444444445e-05, "loss": 0.3084, "step": 1493 }, { "epoch": 0.498, "grad_norm": 1.1034150123596191, "learning_rate": 2.7925925925925926e-05, "loss": 0.292, "step": 1494 }, { "epoch": 0.49833333333333335, "grad_norm": 1.245284914970398, "learning_rate": 2.790740740740741e-05, "loss": 0.3399, "step": 1495 }, { "epoch": 0.49866666666666665, "grad_norm": 1.2290374040603638, "learning_rate": 2.788888888888889e-05, "loss": 0.2493, "step": 1496 }, { "epoch": 0.499, "grad_norm": 1.293812870979309, "learning_rate": 2.7870370370370375e-05, "loss": 0.317, "step": 1497 }, { "epoch": 0.49933333333333335, "grad_norm": 1.1965440511703491, "learning_rate": 2.7851851851851853e-05, "loss": 0.277, "step": 1498 }, { "epoch": 0.49966666666666665, "grad_norm": 1.456701397895813, "learning_rate": 2.7833333333333333e-05, "loss": 0.438, "step": 1499 }, { "epoch": 0.5, "grad_norm": 1.1733109951019287, "learning_rate": 2.7814814814814814e-05, "loss": 0.2996, "step": 1500 }, { "epoch": 0.5003333333333333, "grad_norm": 1.795959711074829, "learning_rate": 2.77962962962963e-05, "loss": 0.3614, "step": 1501 }, { "epoch": 0.5006666666666667, "grad_norm": 1.362471580505371, "learning_rate": 2.777777777777778e-05, "loss": 0.3061, "step": 1502 }, { "epoch": 0.501, "grad_norm": 1.1669842004776, "learning_rate": 2.7759259259259263e-05, "loss": 0.274, "step": 1503 }, { "epoch": 0.5013333333333333, "grad_norm": 1.132703423500061, "learning_rate": 2.774074074074074e-05, "loss": 0.2997, "step": 1504 }, { "epoch": 0.5016666666666667, "grad_norm": 1.29422926902771, "learning_rate": 2.772222222222222e-05, "loss": 0.3392, "step": 1505 }, { "epoch": 0.502, "grad_norm": 1.6348662376403809, "learning_rate": 2.7703703703703706e-05, "loss": 0.3127, "step": 1506 }, { "epoch": 0.5023333333333333, "grad_norm": 1.1919279098510742, "learning_rate": 2.7685185185185186e-05, "loss": 0.2783, "step": 1507 }, { "epoch": 0.5026666666666667, "grad_norm": 1.2770395278930664, "learning_rate": 2.7666666666666667e-05, "loss": 0.3331, "step": 1508 }, { "epoch": 0.503, "grad_norm": 1.3768861293792725, "learning_rate": 2.764814814814815e-05, "loss": 0.362, "step": 1509 }, { "epoch": 0.5033333333333333, "grad_norm": 1.5034273862838745, "learning_rate": 2.7629629629629632e-05, "loss": 0.3681, "step": 1510 }, { "epoch": 0.5036666666666667, "grad_norm": 1.255939245223999, "learning_rate": 2.761111111111111e-05, "loss": 0.2633, "step": 1511 }, { "epoch": 0.504, "grad_norm": 1.1085550785064697, "learning_rate": 2.7592592592592594e-05, "loss": 0.2981, "step": 1512 }, { "epoch": 0.5043333333333333, "grad_norm": 0.9547274112701416, "learning_rate": 2.7574074074074074e-05, "loss": 0.2532, "step": 1513 }, { "epoch": 0.5046666666666667, "grad_norm": 1.4143283367156982, "learning_rate": 2.7555555555555555e-05, "loss": 0.3831, "step": 1514 }, { "epoch": 0.505, "grad_norm": 1.1483356952667236, "learning_rate": 2.753703703703704e-05, "loss": 0.356, "step": 1515 }, { "epoch": 0.5053333333333333, "grad_norm": 1.388203740119934, "learning_rate": 2.751851851851852e-05, "loss": 0.3593, "step": 1516 }, { "epoch": 0.5056666666666667, "grad_norm": 1.219643235206604, "learning_rate": 2.7500000000000004e-05, "loss": 0.2778, "step": 1517 }, { "epoch": 0.506, "grad_norm": 1.013286828994751, "learning_rate": 2.7481481481481482e-05, "loss": 0.2374, "step": 1518 }, { "epoch": 0.5063333333333333, "grad_norm": 1.0495433807373047, "learning_rate": 2.7462962962962963e-05, "loss": 0.2699, "step": 1519 }, { "epoch": 0.5066666666666667, "grad_norm": 1.4823830127716064, "learning_rate": 2.7444444444444443e-05, "loss": 0.3477, "step": 1520 }, { "epoch": 0.507, "grad_norm": 1.4831222295761108, "learning_rate": 2.7425925925925927e-05, "loss": 0.3885, "step": 1521 }, { "epoch": 0.5073333333333333, "grad_norm": 1.5215445756912231, "learning_rate": 2.7407407407407408e-05, "loss": 0.3954, "step": 1522 }, { "epoch": 0.5076666666666667, "grad_norm": 1.320823311805725, "learning_rate": 2.7388888888888892e-05, "loss": 0.3391, "step": 1523 }, { "epoch": 0.508, "grad_norm": 1.2690623998641968, "learning_rate": 2.7370370370370373e-05, "loss": 0.3058, "step": 1524 }, { "epoch": 0.5083333333333333, "grad_norm": 1.3773949146270752, "learning_rate": 2.735185185185185e-05, "loss": 0.3742, "step": 1525 }, { "epoch": 0.5086666666666667, "grad_norm": 1.2697372436523438, "learning_rate": 2.733333333333333e-05, "loss": 0.2814, "step": 1526 }, { "epoch": 0.509, "grad_norm": 1.3424737453460693, "learning_rate": 2.7314814814814816e-05, "loss": 0.3555, "step": 1527 }, { "epoch": 0.5093333333333333, "grad_norm": 2.459449291229248, "learning_rate": 2.7296296296296296e-05, "loss": 0.3297, "step": 1528 }, { "epoch": 0.5096666666666667, "grad_norm": 1.2995909452438354, "learning_rate": 2.727777777777778e-05, "loss": 0.3042, "step": 1529 }, { "epoch": 0.51, "grad_norm": 4.984405040740967, "learning_rate": 2.725925925925926e-05, "loss": 0.2865, "step": 1530 }, { "epoch": 0.5103333333333333, "grad_norm": 1.1686369180679321, "learning_rate": 2.7240740740740745e-05, "loss": 0.2803, "step": 1531 }, { "epoch": 0.5106666666666667, "grad_norm": 1.1103466749191284, "learning_rate": 2.7222222222222223e-05, "loss": 0.2739, "step": 1532 }, { "epoch": 0.511, "grad_norm": 1.3452515602111816, "learning_rate": 2.7203703703703704e-05, "loss": 0.3102, "step": 1533 }, { "epoch": 0.5113333333333333, "grad_norm": 1.1646496057510376, "learning_rate": 2.7185185185185184e-05, "loss": 0.3114, "step": 1534 }, { "epoch": 0.5116666666666667, "grad_norm": 1.2342944145202637, "learning_rate": 2.716666666666667e-05, "loss": 0.3331, "step": 1535 }, { "epoch": 0.512, "grad_norm": 1.2620246410369873, "learning_rate": 2.714814814814815e-05, "loss": 0.2919, "step": 1536 }, { "epoch": 0.5123333333333333, "grad_norm": 1.1050314903259277, "learning_rate": 2.7129629629629634e-05, "loss": 0.3076, "step": 1537 }, { "epoch": 0.5126666666666667, "grad_norm": 1.31367027759552, "learning_rate": 2.7111111111111114e-05, "loss": 0.32, "step": 1538 }, { "epoch": 0.513, "grad_norm": 1.3861865997314453, "learning_rate": 2.7092592592592592e-05, "loss": 0.3502, "step": 1539 }, { "epoch": 0.5133333333333333, "grad_norm": 1.3049886226654053, "learning_rate": 2.7074074074074072e-05, "loss": 0.3694, "step": 1540 }, { "epoch": 0.5136666666666667, "grad_norm": 1.3115769624710083, "learning_rate": 2.7055555555555557e-05, "loss": 0.329, "step": 1541 }, { "epoch": 0.514, "grad_norm": 1.2977041006088257, "learning_rate": 2.7037037037037037e-05, "loss": 0.3339, "step": 1542 }, { "epoch": 0.5143333333333333, "grad_norm": 1.3517369031906128, "learning_rate": 2.701851851851852e-05, "loss": 0.3119, "step": 1543 }, { "epoch": 0.5146666666666667, "grad_norm": 1.0044556856155396, "learning_rate": 2.7000000000000002e-05, "loss": 0.2226, "step": 1544 }, { "epoch": 0.515, "grad_norm": 1.1695088148117065, "learning_rate": 2.6981481481481487e-05, "loss": 0.2791, "step": 1545 }, { "epoch": 0.5153333333333333, "grad_norm": 1.1711336374282837, "learning_rate": 2.696296296296296e-05, "loss": 0.2537, "step": 1546 }, { "epoch": 0.5156666666666667, "grad_norm": 1.1778956651687622, "learning_rate": 2.6944444444444445e-05, "loss": 0.2617, "step": 1547 }, { "epoch": 0.516, "grad_norm": 1.229142189025879, "learning_rate": 2.6925925925925925e-05, "loss": 0.3043, "step": 1548 }, { "epoch": 0.5163333333333333, "grad_norm": 6.447018146514893, "learning_rate": 2.690740740740741e-05, "loss": 0.3321, "step": 1549 }, { "epoch": 0.5166666666666667, "grad_norm": 1.188348412513733, "learning_rate": 2.688888888888889e-05, "loss": 0.2974, "step": 1550 }, { "epoch": 0.517, "grad_norm": 1.1774636507034302, "learning_rate": 2.6870370370370375e-05, "loss": 0.269, "step": 1551 }, { "epoch": 0.5173333333333333, "grad_norm": 1.2182412147521973, "learning_rate": 2.6851851851851855e-05, "loss": 0.2713, "step": 1552 }, { "epoch": 0.5176666666666667, "grad_norm": 1.2212414741516113, "learning_rate": 2.6833333333333333e-05, "loss": 0.3139, "step": 1553 }, { "epoch": 0.518, "grad_norm": 1.2275668382644653, "learning_rate": 2.6814814814814814e-05, "loss": 0.3416, "step": 1554 }, { "epoch": 0.5183333333333333, "grad_norm": 1.2838383913040161, "learning_rate": 2.6796296296296298e-05, "loss": 0.3962, "step": 1555 }, { "epoch": 0.5186666666666667, "grad_norm": 1.2085764408111572, "learning_rate": 2.677777777777778e-05, "loss": 0.2911, "step": 1556 }, { "epoch": 0.519, "grad_norm": 1.1722321510314941, "learning_rate": 2.6759259259259263e-05, "loss": 0.2794, "step": 1557 }, { "epoch": 0.5193333333333333, "grad_norm": 1.6736053228378296, "learning_rate": 2.6740740740740743e-05, "loss": 0.4637, "step": 1558 }, { "epoch": 0.5196666666666667, "grad_norm": 1.3191688060760498, "learning_rate": 2.6722222222222228e-05, "loss": 0.264, "step": 1559 }, { "epoch": 0.52, "grad_norm": 1.2203680276870728, "learning_rate": 2.67037037037037e-05, "loss": 0.2937, "step": 1560 }, { "epoch": 0.5203333333333333, "grad_norm": 1.2008111476898193, "learning_rate": 2.6685185185185186e-05, "loss": 0.2635, "step": 1561 }, { "epoch": 0.5206666666666667, "grad_norm": 1.1602681875228882, "learning_rate": 2.6666666666666667e-05, "loss": 0.3138, "step": 1562 }, { "epoch": 0.521, "grad_norm": 1.1101711988449097, "learning_rate": 2.664814814814815e-05, "loss": 0.2678, "step": 1563 }, { "epoch": 0.5213333333333333, "grad_norm": 0.9724413752555847, "learning_rate": 2.662962962962963e-05, "loss": 0.2642, "step": 1564 }, { "epoch": 0.5216666666666666, "grad_norm": 1.194257140159607, "learning_rate": 2.6611111111111116e-05, "loss": 0.2929, "step": 1565 }, { "epoch": 0.522, "grad_norm": 1.0933821201324463, "learning_rate": 2.659259259259259e-05, "loss": 0.263, "step": 1566 }, { "epoch": 0.5223333333333333, "grad_norm": 1.198868989944458, "learning_rate": 2.6574074074074074e-05, "loss": 0.2868, "step": 1567 }, { "epoch": 0.5226666666666666, "grad_norm": 1.2028801441192627, "learning_rate": 2.6555555555555555e-05, "loss": 0.3438, "step": 1568 }, { "epoch": 0.523, "grad_norm": 1.0905169248580933, "learning_rate": 2.653703703703704e-05, "loss": 0.2738, "step": 1569 }, { "epoch": 0.5233333333333333, "grad_norm": 1.446824550628662, "learning_rate": 2.651851851851852e-05, "loss": 0.4008, "step": 1570 }, { "epoch": 0.5236666666666666, "grad_norm": 1.1336214542388916, "learning_rate": 2.6500000000000004e-05, "loss": 0.2859, "step": 1571 }, { "epoch": 0.524, "grad_norm": 1.2836651802062988, "learning_rate": 2.6481481481481485e-05, "loss": 0.3105, "step": 1572 }, { "epoch": 0.5243333333333333, "grad_norm": 1.2498403787612915, "learning_rate": 2.6462962962962962e-05, "loss": 0.274, "step": 1573 }, { "epoch": 0.5246666666666666, "grad_norm": 1.4189499616622925, "learning_rate": 2.6444444444444443e-05, "loss": 0.2612, "step": 1574 }, { "epoch": 0.525, "grad_norm": 1.6289254426956177, "learning_rate": 2.6425925925925927e-05, "loss": 0.272, "step": 1575 }, { "epoch": 0.5253333333333333, "grad_norm": 0.9528519511222839, "learning_rate": 2.6407407407407408e-05, "loss": 0.2107, "step": 1576 }, { "epoch": 0.5256666666666666, "grad_norm": 1.4156134128570557, "learning_rate": 2.6388888888888892e-05, "loss": 0.3525, "step": 1577 }, { "epoch": 0.526, "grad_norm": 1.1498883962631226, "learning_rate": 2.6370370370370373e-05, "loss": 0.2523, "step": 1578 }, { "epoch": 0.5263333333333333, "grad_norm": 1.0480231046676636, "learning_rate": 2.6351851851851857e-05, "loss": 0.2916, "step": 1579 }, { "epoch": 0.5266666666666666, "grad_norm": 1.1528786420822144, "learning_rate": 2.633333333333333e-05, "loss": 0.2733, "step": 1580 }, { "epoch": 0.527, "grad_norm": 1.1869351863861084, "learning_rate": 2.6314814814814815e-05, "loss": 0.2566, "step": 1581 }, { "epoch": 0.5273333333333333, "grad_norm": 1.1295397281646729, "learning_rate": 2.6296296296296296e-05, "loss": 0.2935, "step": 1582 }, { "epoch": 0.5276666666666666, "grad_norm": 1.3174736499786377, "learning_rate": 2.627777777777778e-05, "loss": 0.2993, "step": 1583 }, { "epoch": 0.528, "grad_norm": 1.2269182205200195, "learning_rate": 2.625925925925926e-05, "loss": 0.3256, "step": 1584 }, { "epoch": 0.5283333333333333, "grad_norm": 1.141493797302246, "learning_rate": 2.6240740740740745e-05, "loss": 0.2875, "step": 1585 }, { "epoch": 0.5286666666666666, "grad_norm": 1.2619270086288452, "learning_rate": 2.6222222222222226e-05, "loss": 0.3303, "step": 1586 }, { "epoch": 0.529, "grad_norm": 1.3654987812042236, "learning_rate": 2.6203703703703703e-05, "loss": 0.3765, "step": 1587 }, { "epoch": 0.5293333333333333, "grad_norm": 1.2210416793823242, "learning_rate": 2.6185185185185184e-05, "loss": 0.3223, "step": 1588 }, { "epoch": 0.5296666666666666, "grad_norm": 2.0776712894439697, "learning_rate": 2.6166666666666668e-05, "loss": 0.3938, "step": 1589 }, { "epoch": 0.53, "grad_norm": 1.270135760307312, "learning_rate": 2.614814814814815e-05, "loss": 0.37, "step": 1590 }, { "epoch": 0.5303333333333333, "grad_norm": 1.3975799083709717, "learning_rate": 2.6129629629629633e-05, "loss": 0.3623, "step": 1591 }, { "epoch": 0.5306666666666666, "grad_norm": 2.404874801635742, "learning_rate": 2.6111111111111114e-05, "loss": 0.3664, "step": 1592 }, { "epoch": 0.531, "grad_norm": 1.3307793140411377, "learning_rate": 2.6092592592592598e-05, "loss": 0.3875, "step": 1593 }, { "epoch": 0.5313333333333333, "grad_norm": 1.1280320882797241, "learning_rate": 2.6074074074074072e-05, "loss": 0.2968, "step": 1594 }, { "epoch": 0.5316666666666666, "grad_norm": 1.227504849433899, "learning_rate": 2.6055555555555556e-05, "loss": 0.3592, "step": 1595 }, { "epoch": 0.532, "grad_norm": 1.2810957431793213, "learning_rate": 2.6037037037037037e-05, "loss": 0.3057, "step": 1596 }, { "epoch": 0.5323333333333333, "grad_norm": 1.3251159191131592, "learning_rate": 2.601851851851852e-05, "loss": 0.379, "step": 1597 }, { "epoch": 0.5326666666666666, "grad_norm": 1.1702214479446411, "learning_rate": 2.6000000000000002e-05, "loss": 0.309, "step": 1598 }, { "epoch": 0.533, "grad_norm": 1.2882493734359741, "learning_rate": 2.5981481481481486e-05, "loss": 0.3367, "step": 1599 }, { "epoch": 0.5333333333333333, "grad_norm": 1.1131504774093628, "learning_rate": 2.5962962962962967e-05, "loss": 0.2526, "step": 1600 }, { "epoch": 0.5336666666666666, "grad_norm": 2.30546236038208, "learning_rate": 2.5944444444444444e-05, "loss": 0.3137, "step": 1601 }, { "epoch": 0.534, "grad_norm": 1.3010516166687012, "learning_rate": 2.5925925925925925e-05, "loss": 0.2772, "step": 1602 }, { "epoch": 0.5343333333333333, "grad_norm": 1.2690236568450928, "learning_rate": 2.590740740740741e-05, "loss": 0.3352, "step": 1603 }, { "epoch": 0.5346666666666666, "grad_norm": 2.1412811279296875, "learning_rate": 2.588888888888889e-05, "loss": 0.3358, "step": 1604 }, { "epoch": 0.535, "grad_norm": 1.3549082279205322, "learning_rate": 2.5870370370370374e-05, "loss": 0.3133, "step": 1605 }, { "epoch": 0.5353333333333333, "grad_norm": 1.1291340589523315, "learning_rate": 2.5851851851851855e-05, "loss": 0.3163, "step": 1606 }, { "epoch": 0.5356666666666666, "grad_norm": 1.151941180229187, "learning_rate": 2.5833333333333336e-05, "loss": 0.2888, "step": 1607 }, { "epoch": 0.536, "grad_norm": 1.0711581707000732, "learning_rate": 2.5814814814814813e-05, "loss": 0.258, "step": 1608 }, { "epoch": 0.5363333333333333, "grad_norm": 1.137495994567871, "learning_rate": 2.5796296296296297e-05, "loss": 0.2733, "step": 1609 }, { "epoch": 0.5366666666666666, "grad_norm": 1.2141145467758179, "learning_rate": 2.5777777777777778e-05, "loss": 0.2617, "step": 1610 }, { "epoch": 0.537, "grad_norm": 1.159049153327942, "learning_rate": 2.5759259259259262e-05, "loss": 0.282, "step": 1611 }, { "epoch": 0.5373333333333333, "grad_norm": 1.2445913553237915, "learning_rate": 2.5740740740740743e-05, "loss": 0.3053, "step": 1612 }, { "epoch": 0.5376666666666666, "grad_norm": 1.138244390487671, "learning_rate": 2.5722222222222224e-05, "loss": 0.2826, "step": 1613 }, { "epoch": 0.538, "grad_norm": 1.1292667388916016, "learning_rate": 2.5703703703703708e-05, "loss": 0.2485, "step": 1614 }, { "epoch": 0.5383333333333333, "grad_norm": 1.29878830909729, "learning_rate": 2.5685185185185185e-05, "loss": 0.3121, "step": 1615 }, { "epoch": 0.5386666666666666, "grad_norm": 1.2880653142929077, "learning_rate": 2.5666666666666666e-05, "loss": 0.3358, "step": 1616 }, { "epoch": 0.539, "grad_norm": 1.230959177017212, "learning_rate": 2.564814814814815e-05, "loss": 0.3031, "step": 1617 }, { "epoch": 0.5393333333333333, "grad_norm": 1.4221138954162598, "learning_rate": 2.562962962962963e-05, "loss": 0.3362, "step": 1618 }, { "epoch": 0.5396666666666666, "grad_norm": 1.3428351879119873, "learning_rate": 2.5611111111111115e-05, "loss": 0.3575, "step": 1619 }, { "epoch": 0.54, "grad_norm": 1.2297545671463013, "learning_rate": 2.5592592592592596e-05, "loss": 0.314, "step": 1620 }, { "epoch": 0.5403333333333333, "grad_norm": 2.001146078109741, "learning_rate": 2.5574074074074077e-05, "loss": 0.3477, "step": 1621 }, { "epoch": 0.5406666666666666, "grad_norm": 1.2080425024032593, "learning_rate": 2.5555555555555554e-05, "loss": 0.3497, "step": 1622 }, { "epoch": 0.541, "grad_norm": 1.3569546937942505, "learning_rate": 2.5537037037037038e-05, "loss": 0.3306, "step": 1623 }, { "epoch": 0.5413333333333333, "grad_norm": 1.1848833560943604, "learning_rate": 2.551851851851852e-05, "loss": 0.311, "step": 1624 }, { "epoch": 0.5416666666666666, "grad_norm": 1.3221973180770874, "learning_rate": 2.5500000000000003e-05, "loss": 0.3476, "step": 1625 }, { "epoch": 0.542, "grad_norm": 1.2601120471954346, "learning_rate": 2.5481481481481484e-05, "loss": 0.2966, "step": 1626 }, { "epoch": 0.5423333333333333, "grad_norm": 1.4615579843521118, "learning_rate": 2.5462962962962965e-05, "loss": 0.3089, "step": 1627 }, { "epoch": 0.5426666666666666, "grad_norm": 1.2451344728469849, "learning_rate": 2.5444444444444442e-05, "loss": 0.3176, "step": 1628 }, { "epoch": 0.543, "grad_norm": 1.14347243309021, "learning_rate": 2.5425925925925926e-05, "loss": 0.3087, "step": 1629 }, { "epoch": 0.5433333333333333, "grad_norm": 1.4387857913970947, "learning_rate": 2.5407407407407407e-05, "loss": 0.3286, "step": 1630 }, { "epoch": 0.5436666666666666, "grad_norm": 1.3314769268035889, "learning_rate": 2.538888888888889e-05, "loss": 0.3177, "step": 1631 }, { "epoch": 0.544, "grad_norm": 1.348276138305664, "learning_rate": 2.5370370370370372e-05, "loss": 0.3763, "step": 1632 }, { "epoch": 0.5443333333333333, "grad_norm": 1.228848934173584, "learning_rate": 2.5351851851851853e-05, "loss": 0.2978, "step": 1633 }, { "epoch": 0.5446666666666666, "grad_norm": 1.13449227809906, "learning_rate": 2.5333333333333337e-05, "loss": 0.2838, "step": 1634 }, { "epoch": 0.545, "grad_norm": 1.43413245677948, "learning_rate": 2.5314814814814814e-05, "loss": 0.3185, "step": 1635 }, { "epoch": 0.5453333333333333, "grad_norm": 1.55903959274292, "learning_rate": 2.5296296296296295e-05, "loss": 0.2708, "step": 1636 }, { "epoch": 0.5456666666666666, "grad_norm": 1.307433843612671, "learning_rate": 2.527777777777778e-05, "loss": 0.2561, "step": 1637 }, { "epoch": 0.546, "grad_norm": 1.4203810691833496, "learning_rate": 2.525925925925926e-05, "loss": 0.3707, "step": 1638 }, { "epoch": 0.5463333333333333, "grad_norm": 1.1473782062530518, "learning_rate": 2.524074074074074e-05, "loss": 0.3148, "step": 1639 }, { "epoch": 0.5466666666666666, "grad_norm": 1.371105432510376, "learning_rate": 2.5222222222222225e-05, "loss": 0.373, "step": 1640 }, { "epoch": 0.547, "grad_norm": 1.258097529411316, "learning_rate": 2.5203703703703706e-05, "loss": 0.3034, "step": 1641 }, { "epoch": 0.5473333333333333, "grad_norm": 1.3621323108673096, "learning_rate": 2.5185185185185183e-05, "loss": 0.3531, "step": 1642 }, { "epoch": 0.5476666666666666, "grad_norm": 1.4661622047424316, "learning_rate": 2.5166666666666667e-05, "loss": 0.3186, "step": 1643 }, { "epoch": 0.548, "grad_norm": 1.2495981454849243, "learning_rate": 2.5148148148148148e-05, "loss": 0.3264, "step": 1644 }, { "epoch": 0.5483333333333333, "grad_norm": 1.3196824789047241, "learning_rate": 2.5129629629629632e-05, "loss": 0.3283, "step": 1645 }, { "epoch": 0.5486666666666666, "grad_norm": 1.5936256647109985, "learning_rate": 2.5111111111111113e-05, "loss": 0.4363, "step": 1646 }, { "epoch": 0.549, "grad_norm": 1.232159972190857, "learning_rate": 2.5092592592592594e-05, "loss": 0.3052, "step": 1647 }, { "epoch": 0.5493333333333333, "grad_norm": 1.361991047859192, "learning_rate": 2.5074074074074078e-05, "loss": 0.2837, "step": 1648 }, { "epoch": 0.5496666666666666, "grad_norm": 1.4128187894821167, "learning_rate": 2.5055555555555555e-05, "loss": 0.3641, "step": 1649 }, { "epoch": 0.55, "grad_norm": 1.0768829584121704, "learning_rate": 2.5037037037037036e-05, "loss": 0.2826, "step": 1650 }, { "epoch": 0.5503333333333333, "grad_norm": 1.1104084253311157, "learning_rate": 2.501851851851852e-05, "loss": 0.2694, "step": 1651 }, { "epoch": 0.5506666666666666, "grad_norm": 1.2818753719329834, "learning_rate": 2.5e-05, "loss": 0.2937, "step": 1652 }, { "epoch": 0.551, "grad_norm": 1.1923905611038208, "learning_rate": 2.4981481481481482e-05, "loss": 0.2936, "step": 1653 }, { "epoch": 0.5513333333333333, "grad_norm": 1.0978777408599854, "learning_rate": 2.4962962962962963e-05, "loss": 0.2496, "step": 1654 }, { "epoch": 0.5516666666666666, "grad_norm": 1.176694393157959, "learning_rate": 2.4944444444444447e-05, "loss": 0.3142, "step": 1655 }, { "epoch": 0.552, "grad_norm": 1.253347396850586, "learning_rate": 2.4925925925925928e-05, "loss": 0.2781, "step": 1656 }, { "epoch": 0.5523333333333333, "grad_norm": 1.1762571334838867, "learning_rate": 2.490740740740741e-05, "loss": 0.2597, "step": 1657 }, { "epoch": 0.5526666666666666, "grad_norm": 1.2914427518844604, "learning_rate": 2.488888888888889e-05, "loss": 0.3417, "step": 1658 }, { "epoch": 0.553, "grad_norm": 1.0712039470672607, "learning_rate": 2.487037037037037e-05, "loss": 0.2934, "step": 1659 }, { "epoch": 0.5533333333333333, "grad_norm": 1.3131605386734009, "learning_rate": 2.4851851851851854e-05, "loss": 0.3025, "step": 1660 }, { "epoch": 0.5536666666666666, "grad_norm": 1.6354283094406128, "learning_rate": 2.4833333333333335e-05, "loss": 0.3115, "step": 1661 }, { "epoch": 0.554, "grad_norm": 1.2606550455093384, "learning_rate": 2.4814814814814816e-05, "loss": 0.3152, "step": 1662 }, { "epoch": 0.5543333333333333, "grad_norm": 1.266679286956787, "learning_rate": 2.4796296296296297e-05, "loss": 0.2908, "step": 1663 }, { "epoch": 0.5546666666666666, "grad_norm": 1.1013392210006714, "learning_rate": 2.477777777777778e-05, "loss": 0.3086, "step": 1664 }, { "epoch": 0.555, "grad_norm": 1.3577028512954712, "learning_rate": 2.475925925925926e-05, "loss": 0.3153, "step": 1665 }, { "epoch": 0.5553333333333333, "grad_norm": 3.720935821533203, "learning_rate": 2.4740740740740742e-05, "loss": 0.2915, "step": 1666 }, { "epoch": 0.5556666666666666, "grad_norm": 1.1450388431549072, "learning_rate": 2.4722222222222223e-05, "loss": 0.2682, "step": 1667 }, { "epoch": 0.556, "grad_norm": 1.3974690437316895, "learning_rate": 2.4703703703703704e-05, "loss": 0.3524, "step": 1668 }, { "epoch": 0.5563333333333333, "grad_norm": 1.2576948404312134, "learning_rate": 2.4685185185185185e-05, "loss": 0.3046, "step": 1669 }, { "epoch": 0.5566666666666666, "grad_norm": 1.2527835369110107, "learning_rate": 2.466666666666667e-05, "loss": 0.3136, "step": 1670 }, { "epoch": 0.557, "grad_norm": 1.6397353410720825, "learning_rate": 2.464814814814815e-05, "loss": 0.3889, "step": 1671 }, { "epoch": 0.5573333333333333, "grad_norm": 1.2080880403518677, "learning_rate": 2.462962962962963e-05, "loss": 0.3324, "step": 1672 }, { "epoch": 0.5576666666666666, "grad_norm": 1.867279291152954, "learning_rate": 2.461111111111111e-05, "loss": 0.3658, "step": 1673 }, { "epoch": 0.558, "grad_norm": 1.0999441146850586, "learning_rate": 2.4592592592592595e-05, "loss": 0.2995, "step": 1674 }, { "epoch": 0.5583333333333333, "grad_norm": 1.361112117767334, "learning_rate": 2.4574074074074073e-05, "loss": 0.314, "step": 1675 }, { "epoch": 0.5586666666666666, "grad_norm": 1.1732336282730103, "learning_rate": 2.4555555555555557e-05, "loss": 0.3079, "step": 1676 }, { "epoch": 0.559, "grad_norm": 1.4144160747528076, "learning_rate": 2.4537037037037038e-05, "loss": 0.2999, "step": 1677 }, { "epoch": 0.5593333333333333, "grad_norm": 1.1764041185379028, "learning_rate": 2.451851851851852e-05, "loss": 0.2949, "step": 1678 }, { "epoch": 0.5596666666666666, "grad_norm": 1.2319204807281494, "learning_rate": 2.45e-05, "loss": 0.3034, "step": 1679 }, { "epoch": 0.56, "grad_norm": 1.1083678007125854, "learning_rate": 2.4481481481481483e-05, "loss": 0.3043, "step": 1680 }, { "epoch": 0.5603333333333333, "grad_norm": 1.2945525646209717, "learning_rate": 2.4462962962962964e-05, "loss": 0.275, "step": 1681 }, { "epoch": 0.5606666666666666, "grad_norm": 1.2114111185073853, "learning_rate": 2.4444444444444445e-05, "loss": 0.3307, "step": 1682 }, { "epoch": 0.561, "grad_norm": 1.3150774240493774, "learning_rate": 2.4425925925925926e-05, "loss": 0.2775, "step": 1683 }, { "epoch": 0.5613333333333334, "grad_norm": 1.3594368696212769, "learning_rate": 2.440740740740741e-05, "loss": 0.287, "step": 1684 }, { "epoch": 0.5616666666666666, "grad_norm": 1.320681095123291, "learning_rate": 2.4388888888888887e-05, "loss": 0.3279, "step": 1685 }, { "epoch": 0.562, "grad_norm": 1.2790018320083618, "learning_rate": 2.437037037037037e-05, "loss": 0.365, "step": 1686 }, { "epoch": 0.5623333333333334, "grad_norm": 1.4072740077972412, "learning_rate": 2.4351851851851852e-05, "loss": 0.338, "step": 1687 }, { "epoch": 0.5626666666666666, "grad_norm": 1.1290217638015747, "learning_rate": 2.4333333333333336e-05, "loss": 0.2796, "step": 1688 }, { "epoch": 0.563, "grad_norm": 1.194667935371399, "learning_rate": 2.4314814814814814e-05, "loss": 0.2819, "step": 1689 }, { "epoch": 0.5633333333333334, "grad_norm": 1.4942392110824585, "learning_rate": 2.4296296296296298e-05, "loss": 0.3906, "step": 1690 }, { "epoch": 0.5636666666666666, "grad_norm": 1.4964629411697388, "learning_rate": 2.427777777777778e-05, "loss": 0.3607, "step": 1691 }, { "epoch": 0.564, "grad_norm": 1.27310049533844, "learning_rate": 2.425925925925926e-05, "loss": 0.3224, "step": 1692 }, { "epoch": 0.5643333333333334, "grad_norm": 1.1442943811416626, "learning_rate": 2.424074074074074e-05, "loss": 0.2473, "step": 1693 }, { "epoch": 0.5646666666666667, "grad_norm": 1.3435713052749634, "learning_rate": 2.4222222222222224e-05, "loss": 0.3041, "step": 1694 }, { "epoch": 0.565, "grad_norm": 1.2853244543075562, "learning_rate": 2.4203703703703705e-05, "loss": 0.3062, "step": 1695 }, { "epoch": 0.5653333333333334, "grad_norm": 1.434497356414795, "learning_rate": 2.4185185185185186e-05, "loss": 0.2535, "step": 1696 }, { "epoch": 0.5656666666666667, "grad_norm": 1.242931842803955, "learning_rate": 2.4166666666666667e-05, "loss": 0.2751, "step": 1697 }, { "epoch": 0.566, "grad_norm": 1.6634811162948608, "learning_rate": 2.414814814814815e-05, "loss": 0.3619, "step": 1698 }, { "epoch": 0.5663333333333334, "grad_norm": 1.243573784828186, "learning_rate": 2.412962962962963e-05, "loss": 0.3375, "step": 1699 }, { "epoch": 0.5666666666666667, "grad_norm": 1.1053024530410767, "learning_rate": 2.4111111111111113e-05, "loss": 0.2712, "step": 1700 }, { "epoch": 0.567, "grad_norm": 1.2527536153793335, "learning_rate": 2.4092592592592593e-05, "loss": 0.4191, "step": 1701 }, { "epoch": 0.5673333333333334, "grad_norm": 1.2239128351211548, "learning_rate": 2.4074074074074074e-05, "loss": 0.323, "step": 1702 }, { "epoch": 0.5676666666666667, "grad_norm": 1.236100196838379, "learning_rate": 2.4055555555555555e-05, "loss": 0.3378, "step": 1703 }, { "epoch": 0.568, "grad_norm": 2.0577549934387207, "learning_rate": 2.403703703703704e-05, "loss": 0.3558, "step": 1704 }, { "epoch": 0.5683333333333334, "grad_norm": 1.2635501623153687, "learning_rate": 2.401851851851852e-05, "loss": 0.3578, "step": 1705 }, { "epoch": 0.5686666666666667, "grad_norm": 0.9147543907165527, "learning_rate": 2.4e-05, "loss": 0.2595, "step": 1706 }, { "epoch": 0.569, "grad_norm": 1.259108304977417, "learning_rate": 2.398148148148148e-05, "loss": 0.2943, "step": 1707 }, { "epoch": 0.5693333333333334, "grad_norm": 1.2028822898864746, "learning_rate": 2.3962962962962966e-05, "loss": 0.2593, "step": 1708 }, { "epoch": 0.5696666666666667, "grad_norm": 1.1309709548950195, "learning_rate": 2.3944444444444443e-05, "loss": 0.2994, "step": 1709 }, { "epoch": 0.57, "grad_norm": 1.1392065286636353, "learning_rate": 2.3925925925925927e-05, "loss": 0.2562, "step": 1710 }, { "epoch": 0.5703333333333334, "grad_norm": 1.9279837608337402, "learning_rate": 2.3907407407407408e-05, "loss": 0.309, "step": 1711 }, { "epoch": 0.5706666666666667, "grad_norm": 1.0560246706008911, "learning_rate": 2.3888888888888892e-05, "loss": 0.303, "step": 1712 }, { "epoch": 0.571, "grad_norm": 1.158282995223999, "learning_rate": 2.387037037037037e-05, "loss": 0.3685, "step": 1713 }, { "epoch": 0.5713333333333334, "grad_norm": 4.929553508758545, "learning_rate": 2.3851851851851854e-05, "loss": 0.268, "step": 1714 }, { "epoch": 0.5716666666666667, "grad_norm": 0.9856443405151367, "learning_rate": 2.3833333333333334e-05, "loss": 0.241, "step": 1715 }, { "epoch": 0.572, "grad_norm": 1.246117115020752, "learning_rate": 2.3814814814814815e-05, "loss": 0.2697, "step": 1716 }, { "epoch": 0.5723333333333334, "grad_norm": 1.3509972095489502, "learning_rate": 2.3796296296296296e-05, "loss": 0.2836, "step": 1717 }, { "epoch": 0.5726666666666667, "grad_norm": 1.41598379611969, "learning_rate": 2.377777777777778e-05, "loss": 0.3467, "step": 1718 }, { "epoch": 0.573, "grad_norm": 1.320853590965271, "learning_rate": 2.375925925925926e-05, "loss": 0.3759, "step": 1719 }, { "epoch": 0.5733333333333334, "grad_norm": 1.366987705230713, "learning_rate": 2.3740740740740742e-05, "loss": 0.3764, "step": 1720 }, { "epoch": 0.5736666666666667, "grad_norm": 1.2163584232330322, "learning_rate": 2.3722222222222222e-05, "loss": 0.2707, "step": 1721 }, { "epoch": 0.574, "grad_norm": 1.148999810218811, "learning_rate": 2.3703703703703707e-05, "loss": 0.3314, "step": 1722 }, { "epoch": 0.5743333333333334, "grad_norm": 1.2645198106765747, "learning_rate": 2.3685185185185184e-05, "loss": 0.2907, "step": 1723 }, { "epoch": 0.5746666666666667, "grad_norm": 1.1543145179748535, "learning_rate": 2.3666666666666668e-05, "loss": 0.2946, "step": 1724 }, { "epoch": 0.575, "grad_norm": 1.3046921491622925, "learning_rate": 2.364814814814815e-05, "loss": 0.2741, "step": 1725 }, { "epoch": 0.5753333333333334, "grad_norm": 1.3403282165527344, "learning_rate": 2.3629629629629633e-05, "loss": 0.357, "step": 1726 }, { "epoch": 0.5756666666666667, "grad_norm": 1.4381896257400513, "learning_rate": 2.361111111111111e-05, "loss": 0.4255, "step": 1727 }, { "epoch": 0.576, "grad_norm": 1.7682150602340698, "learning_rate": 2.3592592592592595e-05, "loss": 0.3509, "step": 1728 }, { "epoch": 0.5763333333333334, "grad_norm": 1.1885401010513306, "learning_rate": 2.3574074074074075e-05, "loss": 0.3113, "step": 1729 }, { "epoch": 0.5766666666666667, "grad_norm": 1.1749744415283203, "learning_rate": 2.3555555555555556e-05, "loss": 0.2695, "step": 1730 }, { "epoch": 0.577, "grad_norm": 1.2060470581054688, "learning_rate": 2.3537037037037037e-05, "loss": 0.3154, "step": 1731 }, { "epoch": 0.5773333333333334, "grad_norm": 1.233744740486145, "learning_rate": 2.351851851851852e-05, "loss": 0.2425, "step": 1732 }, { "epoch": 0.5776666666666667, "grad_norm": 1.3116306066513062, "learning_rate": 2.35e-05, "loss": 0.294, "step": 1733 }, { "epoch": 0.578, "grad_norm": 1.5063791275024414, "learning_rate": 2.3481481481481483e-05, "loss": 0.2686, "step": 1734 }, { "epoch": 0.5783333333333334, "grad_norm": 1.1149698495864868, "learning_rate": 2.3462962962962964e-05, "loss": 0.2915, "step": 1735 }, { "epoch": 0.5786666666666667, "grad_norm": 1.1930100917816162, "learning_rate": 2.3444444444444448e-05, "loss": 0.2908, "step": 1736 }, { "epoch": 0.579, "grad_norm": 1.1021292209625244, "learning_rate": 2.3425925925925925e-05, "loss": 0.2705, "step": 1737 }, { "epoch": 0.5793333333333334, "grad_norm": 1.1707621812820435, "learning_rate": 2.340740740740741e-05, "loss": 0.2581, "step": 1738 }, { "epoch": 0.5796666666666667, "grad_norm": 1.2104846239089966, "learning_rate": 2.338888888888889e-05, "loss": 0.2582, "step": 1739 }, { "epoch": 0.58, "grad_norm": 1.0939769744873047, "learning_rate": 2.337037037037037e-05, "loss": 0.2403, "step": 1740 }, { "epoch": 0.5803333333333334, "grad_norm": 1.2635754346847534, "learning_rate": 2.335185185185185e-05, "loss": 0.3101, "step": 1741 }, { "epoch": 0.5806666666666667, "grad_norm": 1.0988693237304688, "learning_rate": 2.3333333333333336e-05, "loss": 0.2417, "step": 1742 }, { "epoch": 0.581, "grad_norm": 2.1617372035980225, "learning_rate": 2.3314814814814817e-05, "loss": 0.3107, "step": 1743 }, { "epoch": 0.5813333333333334, "grad_norm": 1.2130281925201416, "learning_rate": 2.3296296296296297e-05, "loss": 0.3055, "step": 1744 }, { "epoch": 0.5816666666666667, "grad_norm": 1.2461963891983032, "learning_rate": 2.3277777777777778e-05, "loss": 0.2751, "step": 1745 }, { "epoch": 0.582, "grad_norm": 1.354074239730835, "learning_rate": 2.3259259259259262e-05, "loss": 0.3646, "step": 1746 }, { "epoch": 0.5823333333333334, "grad_norm": 1.4111844301223755, "learning_rate": 2.324074074074074e-05, "loss": 0.3452, "step": 1747 }, { "epoch": 0.5826666666666667, "grad_norm": 1.3657983541488647, "learning_rate": 2.3222222222222224e-05, "loss": 0.3517, "step": 1748 }, { "epoch": 0.583, "grad_norm": 1.3942766189575195, "learning_rate": 2.3203703703703705e-05, "loss": 0.3561, "step": 1749 }, { "epoch": 0.5833333333333334, "grad_norm": 1.3335144519805908, "learning_rate": 2.318518518518519e-05, "loss": 0.346, "step": 1750 }, { "epoch": 0.5836666666666667, "grad_norm": 1.1133785247802734, "learning_rate": 2.3166666666666666e-05, "loss": 0.2237, "step": 1751 }, { "epoch": 0.584, "grad_norm": 1.339524745941162, "learning_rate": 2.314814814814815e-05, "loss": 0.3209, "step": 1752 }, { "epoch": 0.5843333333333334, "grad_norm": 1.1992334127426147, "learning_rate": 2.312962962962963e-05, "loss": 0.3388, "step": 1753 }, { "epoch": 0.5846666666666667, "grad_norm": 1.46676766872406, "learning_rate": 2.3111111111111112e-05, "loss": 0.418, "step": 1754 }, { "epoch": 0.585, "grad_norm": 1.7818154096603394, "learning_rate": 2.3092592592592593e-05, "loss": 0.3606, "step": 1755 }, { "epoch": 0.5853333333333334, "grad_norm": 1.469072699546814, "learning_rate": 2.3074074074074077e-05, "loss": 0.341, "step": 1756 }, { "epoch": 0.5856666666666667, "grad_norm": 1.0899888277053833, "learning_rate": 2.3055555555555558e-05, "loss": 0.288, "step": 1757 }, { "epoch": 0.586, "grad_norm": 1.2757806777954102, "learning_rate": 2.303703703703704e-05, "loss": 0.2776, "step": 1758 }, { "epoch": 0.5863333333333334, "grad_norm": 1.1895567178726196, "learning_rate": 2.301851851851852e-05, "loss": 0.2897, "step": 1759 }, { "epoch": 0.5866666666666667, "grad_norm": 1.0780622959136963, "learning_rate": 2.3000000000000003e-05, "loss": 0.2622, "step": 1760 }, { "epoch": 0.587, "grad_norm": 1.380104899406433, "learning_rate": 2.298148148148148e-05, "loss": 0.2832, "step": 1761 }, { "epoch": 0.5873333333333334, "grad_norm": 1.1301422119140625, "learning_rate": 2.2962962962962965e-05, "loss": 0.2817, "step": 1762 }, { "epoch": 0.5876666666666667, "grad_norm": 1.2102361917495728, "learning_rate": 2.2944444444444446e-05, "loss": 0.3315, "step": 1763 }, { "epoch": 0.588, "grad_norm": 1.179661750793457, "learning_rate": 2.2925925925925927e-05, "loss": 0.2688, "step": 1764 }, { "epoch": 0.5883333333333334, "grad_norm": 1.4603049755096436, "learning_rate": 2.2907407407407407e-05, "loss": 0.3317, "step": 1765 }, { "epoch": 0.5886666666666667, "grad_norm": 1.249125361442566, "learning_rate": 2.288888888888889e-05, "loss": 0.3515, "step": 1766 }, { "epoch": 0.589, "grad_norm": 1.1526137590408325, "learning_rate": 2.2870370370370372e-05, "loss": 0.2941, "step": 1767 }, { "epoch": 0.5893333333333334, "grad_norm": 1.2609868049621582, "learning_rate": 2.2851851851851853e-05, "loss": 0.2806, "step": 1768 }, { "epoch": 0.5896666666666667, "grad_norm": 1.1438018083572388, "learning_rate": 2.2833333333333334e-05, "loss": 0.2586, "step": 1769 }, { "epoch": 0.59, "grad_norm": 1.0569912195205688, "learning_rate": 2.2814814814814818e-05, "loss": 0.303, "step": 1770 }, { "epoch": 0.5903333333333334, "grad_norm": 1.2642929553985596, "learning_rate": 2.2796296296296295e-05, "loss": 0.3194, "step": 1771 }, { "epoch": 0.5906666666666667, "grad_norm": 1.117351770401001, "learning_rate": 2.277777777777778e-05, "loss": 0.2767, "step": 1772 }, { "epoch": 0.591, "grad_norm": 1.3347728252410889, "learning_rate": 2.275925925925926e-05, "loss": 0.3336, "step": 1773 }, { "epoch": 0.5913333333333334, "grad_norm": 1.2015211582183838, "learning_rate": 2.2740740740740744e-05, "loss": 0.2853, "step": 1774 }, { "epoch": 0.5916666666666667, "grad_norm": 1.1698435544967651, "learning_rate": 2.2722222222222222e-05, "loss": 0.254, "step": 1775 }, { "epoch": 0.592, "grad_norm": 1.5131430625915527, "learning_rate": 2.2703703703703706e-05, "loss": 0.3284, "step": 1776 }, { "epoch": 0.5923333333333334, "grad_norm": 1.0668686628341675, "learning_rate": 2.2685185185185187e-05, "loss": 0.2732, "step": 1777 }, { "epoch": 0.5926666666666667, "grad_norm": 1.4489037990570068, "learning_rate": 2.2666666666666668e-05, "loss": 0.3418, "step": 1778 }, { "epoch": 0.593, "grad_norm": 1.16927969455719, "learning_rate": 2.264814814814815e-05, "loss": 0.2993, "step": 1779 }, { "epoch": 0.5933333333333334, "grad_norm": 1.4882746934890747, "learning_rate": 2.2629629629629633e-05, "loss": 0.3318, "step": 1780 }, { "epoch": 0.5936666666666667, "grad_norm": 2.0864250659942627, "learning_rate": 2.2611111111111113e-05, "loss": 0.2687, "step": 1781 }, { "epoch": 0.594, "grad_norm": 1.1608772277832031, "learning_rate": 2.2592592592592594e-05, "loss": 0.2539, "step": 1782 }, { "epoch": 0.5943333333333334, "grad_norm": 2.111567735671997, "learning_rate": 2.2574074074074075e-05, "loss": 0.3273, "step": 1783 }, { "epoch": 0.5946666666666667, "grad_norm": 1.1452022790908813, "learning_rate": 2.255555555555556e-05, "loss": 0.2919, "step": 1784 }, { "epoch": 0.595, "grad_norm": 1.146765112876892, "learning_rate": 2.2537037037037036e-05, "loss": 0.2536, "step": 1785 }, { "epoch": 0.5953333333333334, "grad_norm": 1.423264741897583, "learning_rate": 2.251851851851852e-05, "loss": 0.2842, "step": 1786 }, { "epoch": 0.5956666666666667, "grad_norm": 1.177667260169983, "learning_rate": 2.25e-05, "loss": 0.3172, "step": 1787 }, { "epoch": 0.596, "grad_norm": 1.1249909400939941, "learning_rate": 2.2481481481481486e-05, "loss": 0.2375, "step": 1788 }, { "epoch": 0.5963333333333334, "grad_norm": 1.266745924949646, "learning_rate": 2.2462962962962963e-05, "loss": 0.3012, "step": 1789 }, { "epoch": 0.5966666666666667, "grad_norm": 1.0687531232833862, "learning_rate": 2.2444444444444447e-05, "loss": 0.2673, "step": 1790 }, { "epoch": 0.597, "grad_norm": 1.1585710048675537, "learning_rate": 2.2425925925925928e-05, "loss": 0.277, "step": 1791 }, { "epoch": 0.5973333333333334, "grad_norm": 1.4982292652130127, "learning_rate": 2.240740740740741e-05, "loss": 0.2999, "step": 1792 }, { "epoch": 0.5976666666666667, "grad_norm": 1.179132342338562, "learning_rate": 2.238888888888889e-05, "loss": 0.3068, "step": 1793 }, { "epoch": 0.598, "grad_norm": 1.2970823049545288, "learning_rate": 2.2370370370370374e-05, "loss": 0.3658, "step": 1794 }, { "epoch": 0.5983333333333334, "grad_norm": 1.445186734199524, "learning_rate": 2.235185185185185e-05, "loss": 0.4234, "step": 1795 }, { "epoch": 0.5986666666666667, "grad_norm": 1.1528774499893188, "learning_rate": 2.2333333333333335e-05, "loss": 0.307, "step": 1796 }, { "epoch": 0.599, "grad_norm": 1.1850299835205078, "learning_rate": 2.2314814814814816e-05, "loss": 0.3367, "step": 1797 }, { "epoch": 0.5993333333333334, "grad_norm": 1.418897271156311, "learning_rate": 2.2296296296296297e-05, "loss": 0.339, "step": 1798 }, { "epoch": 0.5996666666666667, "grad_norm": 1.3328450918197632, "learning_rate": 2.2277777777777778e-05, "loss": 0.3573, "step": 1799 }, { "epoch": 0.6, "grad_norm": 1.2324028015136719, "learning_rate": 2.2259259259259262e-05, "loss": 0.342, "step": 1800 }, { "epoch": 0.6003333333333334, "grad_norm": 1.1721744537353516, "learning_rate": 2.2240740740740743e-05, "loss": 0.2828, "step": 1801 }, { "epoch": 0.6006666666666667, "grad_norm": 1.0245660543441772, "learning_rate": 2.2222222222222223e-05, "loss": 0.2683, "step": 1802 }, { "epoch": 0.601, "grad_norm": 1.7061488628387451, "learning_rate": 2.2203703703703704e-05, "loss": 0.3393, "step": 1803 }, { "epoch": 0.6013333333333334, "grad_norm": 1.2286412715911865, "learning_rate": 2.2185185185185188e-05, "loss": 0.3205, "step": 1804 }, { "epoch": 0.6016666666666667, "grad_norm": 1.2103099822998047, "learning_rate": 2.216666666666667e-05, "loss": 0.3026, "step": 1805 }, { "epoch": 0.602, "grad_norm": 1.8570104837417603, "learning_rate": 2.214814814814815e-05, "loss": 0.2579, "step": 1806 }, { "epoch": 0.6023333333333334, "grad_norm": 1.2374097108840942, "learning_rate": 2.212962962962963e-05, "loss": 0.309, "step": 1807 }, { "epoch": 0.6026666666666667, "grad_norm": 1.0504631996154785, "learning_rate": 2.211111111111111e-05, "loss": 0.2346, "step": 1808 }, { "epoch": 0.603, "grad_norm": 1.204936146736145, "learning_rate": 2.2092592592592592e-05, "loss": 0.2783, "step": 1809 }, { "epoch": 0.6033333333333334, "grad_norm": 1.432580590248108, "learning_rate": 2.2074074074074076e-05, "loss": 0.3652, "step": 1810 }, { "epoch": 0.6036666666666667, "grad_norm": 1.1430526971817017, "learning_rate": 2.2055555555555557e-05, "loss": 0.25, "step": 1811 }, { "epoch": 0.604, "grad_norm": 1.3105876445770264, "learning_rate": 2.2037037037037038e-05, "loss": 0.3337, "step": 1812 }, { "epoch": 0.6043333333333333, "grad_norm": 1.254717230796814, "learning_rate": 2.201851851851852e-05, "loss": 0.3366, "step": 1813 }, { "epoch": 0.6046666666666667, "grad_norm": 1.2206424474716187, "learning_rate": 2.2000000000000003e-05, "loss": 0.3126, "step": 1814 }, { "epoch": 0.605, "grad_norm": 1.0285736322402954, "learning_rate": 2.1981481481481484e-05, "loss": 0.2784, "step": 1815 }, { "epoch": 0.6053333333333333, "grad_norm": 1.0412527322769165, "learning_rate": 2.1962962962962964e-05, "loss": 0.2325, "step": 1816 }, { "epoch": 0.6056666666666667, "grad_norm": 1.1226699352264404, "learning_rate": 2.1944444444444445e-05, "loss": 0.3141, "step": 1817 }, { "epoch": 0.606, "grad_norm": 1.463566541671753, "learning_rate": 2.1925925925925926e-05, "loss": 0.3069, "step": 1818 }, { "epoch": 0.6063333333333333, "grad_norm": 1.8040052652359009, "learning_rate": 2.190740740740741e-05, "loss": 0.397, "step": 1819 }, { "epoch": 0.6066666666666667, "grad_norm": 1.21146559715271, "learning_rate": 2.188888888888889e-05, "loss": 0.3052, "step": 1820 }, { "epoch": 0.607, "grad_norm": 1.0456948280334473, "learning_rate": 2.187037037037037e-05, "loss": 0.2744, "step": 1821 }, { "epoch": 0.6073333333333333, "grad_norm": 1.093034029006958, "learning_rate": 2.1851851851851852e-05, "loss": 0.2369, "step": 1822 }, { "epoch": 0.6076666666666667, "grad_norm": 1.2086904048919678, "learning_rate": 2.1833333333333333e-05, "loss": 0.3441, "step": 1823 }, { "epoch": 0.608, "grad_norm": 1.2877882719039917, "learning_rate": 2.1814814814814817e-05, "loss": 0.3242, "step": 1824 }, { "epoch": 0.6083333333333333, "grad_norm": 1.5536692142486572, "learning_rate": 2.1796296296296298e-05, "loss": 0.3599, "step": 1825 }, { "epoch": 0.6086666666666667, "grad_norm": 1.1821976900100708, "learning_rate": 2.177777777777778e-05, "loss": 0.2712, "step": 1826 }, { "epoch": 0.609, "grad_norm": 1.1729826927185059, "learning_rate": 2.175925925925926e-05, "loss": 0.2678, "step": 1827 }, { "epoch": 0.6093333333333333, "grad_norm": 1.4278620481491089, "learning_rate": 2.174074074074074e-05, "loss": 0.2967, "step": 1828 }, { "epoch": 1.0003333333333333, "grad_norm": 1.302182674407959, "learning_rate": 2.1722222222222225e-05, "loss": 0.3493, "step": 1829 }, { "epoch": 1.0006666666666666, "grad_norm": 1.0404973030090332, "learning_rate": 2.1703703703703705e-05, "loss": 0.2678, "step": 1830 }, { "epoch": 1.001, "grad_norm": 1.188072681427002, "learning_rate": 2.1685185185185186e-05, "loss": 0.317, "step": 1831 }, { "epoch": 1.0013333333333334, "grad_norm": 1.1617701053619385, "learning_rate": 2.1666666666666667e-05, "loss": 0.3048, "step": 1832 }, { "epoch": 1.0016666666666667, "grad_norm": 1.038446307182312, "learning_rate": 2.1648148148148148e-05, "loss": 0.2955, "step": 1833 }, { "epoch": 1.002, "grad_norm": 1.1430332660675049, "learning_rate": 2.162962962962963e-05, "loss": 0.3194, "step": 1834 }, { "epoch": 1.0023333333333333, "grad_norm": 1.3381142616271973, "learning_rate": 2.1611111111111113e-05, "loss": 0.3171, "step": 1835 }, { "epoch": 1.0026666666666666, "grad_norm": 1.2083332538604736, "learning_rate": 2.1592592592592594e-05, "loss": 0.2818, "step": 1836 }, { "epoch": 1.003, "grad_norm": 1.5423758029937744, "learning_rate": 2.1574074074074074e-05, "loss": 0.2818, "step": 1837 }, { "epoch": 1.0033333333333334, "grad_norm": 1.0911376476287842, "learning_rate": 2.1555555555555555e-05, "loss": 0.247, "step": 1838 }, { "epoch": 1.0036666666666667, "grad_norm": 1.1435863971710205, "learning_rate": 2.153703703703704e-05, "loss": 0.28, "step": 1839 }, { "epoch": 1.004, "grad_norm": 1.2733820676803589, "learning_rate": 2.151851851851852e-05, "loss": 0.2598, "step": 1840 }, { "epoch": 1.0043333333333333, "grad_norm": 1.2856019735336304, "learning_rate": 2.15e-05, "loss": 0.3128, "step": 1841 }, { "epoch": 1.0046666666666666, "grad_norm": 1.2068068981170654, "learning_rate": 2.148148148148148e-05, "loss": 0.2998, "step": 1842 }, { "epoch": 1.005, "grad_norm": 1.2854981422424316, "learning_rate": 2.1462962962962966e-05, "loss": 0.3229, "step": 1843 }, { "epoch": 1.0053333333333334, "grad_norm": 1.1743899583816528, "learning_rate": 2.1444444444444443e-05, "loss": 0.2807, "step": 1844 }, { "epoch": 1.0056666666666667, "grad_norm": 1.0408605337142944, "learning_rate": 2.1425925925925927e-05, "loss": 0.2658, "step": 1845 }, { "epoch": 1.006, "grad_norm": 1.215695858001709, "learning_rate": 2.1407407407407408e-05, "loss": 0.3182, "step": 1846 }, { "epoch": 1.0063333333333333, "grad_norm": 1.2855089902877808, "learning_rate": 2.138888888888889e-05, "loss": 0.3406, "step": 1847 }, { "epoch": 1.0066666666666666, "grad_norm": 1.4617725610733032, "learning_rate": 2.137037037037037e-05, "loss": 0.3224, "step": 1848 }, { "epoch": 1.007, "grad_norm": 1.0579670667648315, "learning_rate": 2.1351851851851854e-05, "loss": 0.2405, "step": 1849 }, { "epoch": 1.0073333333333334, "grad_norm": 1.2777776718139648, "learning_rate": 2.1333333333333335e-05, "loss": 0.2937, "step": 1850 }, { "epoch": 1.0076666666666667, "grad_norm": 1.2581491470336914, "learning_rate": 2.1314814814814815e-05, "loss": 0.286, "step": 1851 }, { "epoch": 1.008, "grad_norm": 1.3602179288864136, "learning_rate": 2.1296296296296296e-05, "loss": 0.3436, "step": 1852 }, { "epoch": 1.0083333333333333, "grad_norm": 1.1872711181640625, "learning_rate": 2.127777777777778e-05, "loss": 0.2965, "step": 1853 }, { "epoch": 1.0086666666666666, "grad_norm": 1.1838449239730835, "learning_rate": 2.1259259259259258e-05, "loss": 0.2879, "step": 1854 }, { "epoch": 1.009, "grad_norm": 1.1886194944381714, "learning_rate": 2.1240740740740742e-05, "loss": 0.3188, "step": 1855 }, { "epoch": 1.0093333333333334, "grad_norm": 1.436417579650879, "learning_rate": 2.1222222222222223e-05, "loss": 0.3471, "step": 1856 }, { "epoch": 1.0096666666666667, "grad_norm": 1.2092169523239136, "learning_rate": 2.1203703703703703e-05, "loss": 0.2771, "step": 1857 }, { "epoch": 1.01, "grad_norm": 1.2030128240585327, "learning_rate": 2.1185185185185184e-05, "loss": 0.2904, "step": 1858 }, { "epoch": 1.0103333333333333, "grad_norm": 1.0994409322738647, "learning_rate": 2.116666666666667e-05, "loss": 0.2647, "step": 1859 }, { "epoch": 1.0106666666666666, "grad_norm": 1.1159305572509766, "learning_rate": 2.114814814814815e-05, "loss": 0.2734, "step": 1860 }, { "epoch": 1.011, "grad_norm": 1.1156705617904663, "learning_rate": 2.112962962962963e-05, "loss": 0.2972, "step": 1861 }, { "epoch": 1.0113333333333334, "grad_norm": 1.0875974893569946, "learning_rate": 2.111111111111111e-05, "loss": 0.2645, "step": 1862 }, { "epoch": 1.0116666666666667, "grad_norm": 1.2235674858093262, "learning_rate": 2.1092592592592595e-05, "loss": 0.2653, "step": 1863 }, { "epoch": 1.012, "grad_norm": 1.1224637031555176, "learning_rate": 2.1074074074074072e-05, "loss": 0.271, "step": 1864 }, { "epoch": 1.0123333333333333, "grad_norm": 1.5462406873703003, "learning_rate": 2.1055555555555556e-05, "loss": 0.3532, "step": 1865 }, { "epoch": 1.0126666666666666, "grad_norm": 1.1239745616912842, "learning_rate": 2.1037037037037037e-05, "loss": 0.3082, "step": 1866 }, { "epoch": 1.013, "grad_norm": 1.2063111066818237, "learning_rate": 2.101851851851852e-05, "loss": 0.3034, "step": 1867 }, { "epoch": 1.0133333333333334, "grad_norm": 1.1896368265151978, "learning_rate": 2.1e-05, "loss": 0.3125, "step": 1868 }, { "epoch": 1.0136666666666667, "grad_norm": 1.3331562280654907, "learning_rate": 2.0981481481481483e-05, "loss": 0.2501, "step": 1869 }, { "epoch": 1.014, "grad_norm": 1.0731514692306519, "learning_rate": 2.0962962962962964e-05, "loss": 0.2572, "step": 1870 }, { "epoch": 1.0143333333333333, "grad_norm": 1.449259877204895, "learning_rate": 2.0944444444444445e-05, "loss": 0.3416, "step": 1871 }, { "epoch": 1.0146666666666666, "grad_norm": 1.0001310110092163, "learning_rate": 2.0925925925925925e-05, "loss": 0.2351, "step": 1872 }, { "epoch": 1.015, "grad_norm": 1.1621854305267334, "learning_rate": 2.090740740740741e-05, "loss": 0.2842, "step": 1873 }, { "epoch": 1.0153333333333334, "grad_norm": 1.049918293952942, "learning_rate": 2.088888888888889e-05, "loss": 0.2402, "step": 1874 }, { "epoch": 1.0156666666666667, "grad_norm": 1.0949355363845825, "learning_rate": 2.087037037037037e-05, "loss": 0.2622, "step": 1875 }, { "epoch": 1.016, "grad_norm": 1.3457953929901123, "learning_rate": 2.0851851851851852e-05, "loss": 0.3087, "step": 1876 }, { "epoch": 1.0163333333333333, "grad_norm": 2.9082894325256348, "learning_rate": 2.0833333333333336e-05, "loss": 0.2815, "step": 1877 }, { "epoch": 1.0166666666666666, "grad_norm": 1.1484061479568481, "learning_rate": 2.0814814814814813e-05, "loss": 0.2339, "step": 1878 }, { "epoch": 1.017, "grad_norm": 1.2704479694366455, "learning_rate": 2.0796296296296298e-05, "loss": 0.3218, "step": 1879 }, { "epoch": 1.0173333333333334, "grad_norm": 1.68930983543396, "learning_rate": 2.077777777777778e-05, "loss": 0.2715, "step": 1880 }, { "epoch": 1.0176666666666667, "grad_norm": 1.0638198852539062, "learning_rate": 2.0759259259259263e-05, "loss": 0.2722, "step": 1881 }, { "epoch": 1.018, "grad_norm": 1.022449254989624, "learning_rate": 2.074074074074074e-05, "loss": 0.2285, "step": 1882 }, { "epoch": 1.0183333333333333, "grad_norm": 1.0179717540740967, "learning_rate": 2.0722222222222224e-05, "loss": 0.2386, "step": 1883 }, { "epoch": 1.0186666666666666, "grad_norm": 1.111007809638977, "learning_rate": 2.0703703703703705e-05, "loss": 0.2564, "step": 1884 }, { "epoch": 1.019, "grad_norm": 1.1237149238586426, "learning_rate": 2.0685185185185186e-05, "loss": 0.249, "step": 1885 }, { "epoch": 1.0193333333333334, "grad_norm": 1.2450875043869019, "learning_rate": 2.0666666666666666e-05, "loss": 0.2804, "step": 1886 }, { "epoch": 1.0196666666666667, "grad_norm": 1.0422711372375488, "learning_rate": 2.064814814814815e-05, "loss": 0.2268, "step": 1887 }, { "epoch": 1.02, "grad_norm": 1.3335553407669067, "learning_rate": 2.0629629629629628e-05, "loss": 0.2922, "step": 1888 }, { "epoch": 1.0203333333333333, "grad_norm": 1.0887916088104248, "learning_rate": 2.0611111111111112e-05, "loss": 0.2876, "step": 1889 }, { "epoch": 1.0206666666666666, "grad_norm": 1.110905408859253, "learning_rate": 2.0592592592592593e-05, "loss": 0.2656, "step": 1890 }, { "epoch": 1.021, "grad_norm": 1.0913283824920654, "learning_rate": 2.0574074074074077e-05, "loss": 0.2165, "step": 1891 }, { "epoch": 1.0213333333333334, "grad_norm": 1.0819134712219238, "learning_rate": 2.0555555555555555e-05, "loss": 0.2277, "step": 1892 }, { "epoch": 1.0216666666666667, "grad_norm": 1.1721434593200684, "learning_rate": 2.053703703703704e-05, "loss": 0.2218, "step": 1893 }, { "epoch": 1.022, "grad_norm": 1.17229163646698, "learning_rate": 2.051851851851852e-05, "loss": 0.2889, "step": 1894 }, { "epoch": 1.0223333333333333, "grad_norm": 1.3256553411483765, "learning_rate": 2.05e-05, "loss": 0.3611, "step": 1895 }, { "epoch": 1.0226666666666666, "grad_norm": 1.2750449180603027, "learning_rate": 2.048148148148148e-05, "loss": 0.2802, "step": 1896 }, { "epoch": 1.023, "grad_norm": 1.533634901046753, "learning_rate": 2.0462962962962965e-05, "loss": 0.2373, "step": 1897 }, { "epoch": 1.0233333333333334, "grad_norm": 1.12489652633667, "learning_rate": 2.0444444444444446e-05, "loss": 0.2761, "step": 1898 }, { "epoch": 1.0236666666666667, "grad_norm": 1.1781072616577148, "learning_rate": 2.0425925925925927e-05, "loss": 0.2537, "step": 1899 }, { "epoch": 1.024, "grad_norm": 1.1631786823272705, "learning_rate": 2.0407407407407408e-05, "loss": 0.2768, "step": 1900 }, { "epoch": 1.0243333333333333, "grad_norm": 1.0416260957717896, "learning_rate": 2.0388888888888892e-05, "loss": 0.2421, "step": 1901 }, { "epoch": 1.0246666666666666, "grad_norm": 0.9658091068267822, "learning_rate": 2.037037037037037e-05, "loss": 0.194, "step": 1902 }, { "epoch": 1.025, "grad_norm": 1.1174275875091553, "learning_rate": 2.0351851851851853e-05, "loss": 0.2311, "step": 1903 }, { "epoch": 1.0253333333333334, "grad_norm": 1.2713980674743652, "learning_rate": 2.0333333333333334e-05, "loss": 0.2573, "step": 1904 }, { "epoch": 1.0256666666666667, "grad_norm": 1.1400760412216187, "learning_rate": 2.0314814814814818e-05, "loss": 0.3417, "step": 1905 }, { "epoch": 1.026, "grad_norm": 1.2865747213363647, "learning_rate": 2.0296296296296296e-05, "loss": 0.2871, "step": 1906 }, { "epoch": 1.0263333333333333, "grad_norm": 1.345824956893921, "learning_rate": 2.027777777777778e-05, "loss": 0.2769, "step": 1907 }, { "epoch": 1.0266666666666666, "grad_norm": 1.0821865797042847, "learning_rate": 2.025925925925926e-05, "loss": 0.2315, "step": 1908 }, { "epoch": 1.027, "grad_norm": 1.0028663873672485, "learning_rate": 2.024074074074074e-05, "loss": 0.2148, "step": 1909 }, { "epoch": 1.0273333333333334, "grad_norm": 0.9448598027229309, "learning_rate": 2.0222222222222222e-05, "loss": 0.2412, "step": 1910 }, { "epoch": 1.0276666666666667, "grad_norm": 1.2178449630737305, "learning_rate": 2.0203703703703706e-05, "loss": 0.253, "step": 1911 }, { "epoch": 1.028, "grad_norm": 1.2426848411560059, "learning_rate": 2.0185185185185187e-05, "loss": 0.2739, "step": 1912 }, { "epoch": 1.0283333333333333, "grad_norm": 1.1190718412399292, "learning_rate": 2.0166666666666668e-05, "loss": 0.2451, "step": 1913 }, { "epoch": 1.0286666666666666, "grad_norm": 1.1792895793914795, "learning_rate": 2.014814814814815e-05, "loss": 0.2422, "step": 1914 }, { "epoch": 1.029, "grad_norm": 1.32844078540802, "learning_rate": 2.0129629629629633e-05, "loss": 0.2929, "step": 1915 }, { "epoch": 1.0293333333333334, "grad_norm": 1.2905480861663818, "learning_rate": 2.011111111111111e-05, "loss": 0.3552, "step": 1916 }, { "epoch": 1.0296666666666667, "grad_norm": 1.261162519454956, "learning_rate": 2.0092592592592594e-05, "loss": 0.3253, "step": 1917 }, { "epoch": 1.03, "grad_norm": 0.8853784203529358, "learning_rate": 2.0074074074074075e-05, "loss": 0.1804, "step": 1918 }, { "epoch": 1.0303333333333333, "grad_norm": 3.5916221141815186, "learning_rate": 2.0055555555555556e-05, "loss": 0.2918, "step": 1919 }, { "epoch": 1.0306666666666666, "grad_norm": 1.0343499183654785, "learning_rate": 2.0037037037037037e-05, "loss": 0.2341, "step": 1920 }, { "epoch": 1.031, "grad_norm": 0.9512354731559753, "learning_rate": 2.001851851851852e-05, "loss": 0.2513, "step": 1921 }, { "epoch": 1.0313333333333334, "grad_norm": 1.1051499843597412, "learning_rate": 2e-05, "loss": 0.2181, "step": 1922 }, { "epoch": 1.0316666666666667, "grad_norm": 1.271216869354248, "learning_rate": 1.9981481481481482e-05, "loss": 0.262, "step": 1923 }, { "epoch": 1.032, "grad_norm": 1.3168870210647583, "learning_rate": 1.9962962962962963e-05, "loss": 0.3285, "step": 1924 }, { "epoch": 1.0323333333333333, "grad_norm": 1.2547926902770996, "learning_rate": 1.9944444444444447e-05, "loss": 0.2482, "step": 1925 }, { "epoch": 1.0326666666666666, "grad_norm": 1.1486369371414185, "learning_rate": 1.9925925925925925e-05, "loss": 0.2992, "step": 1926 }, { "epoch": 1.033, "grad_norm": 1.1076180934906006, "learning_rate": 1.990740740740741e-05, "loss": 0.3101, "step": 1927 }, { "epoch": 1.0333333333333334, "grad_norm": 1.1300196647644043, "learning_rate": 1.988888888888889e-05, "loss": 0.2334, "step": 1928 }, { "epoch": 1.0336666666666667, "grad_norm": 1.0918118953704834, "learning_rate": 1.9870370370370374e-05, "loss": 0.2483, "step": 1929 }, { "epoch": 1.034, "grad_norm": 1.076111078262329, "learning_rate": 1.985185185185185e-05, "loss": 0.2666, "step": 1930 }, { "epoch": 1.0343333333333333, "grad_norm": 1.1161117553710938, "learning_rate": 1.9833333333333335e-05, "loss": 0.2565, "step": 1931 }, { "epoch": 1.0346666666666666, "grad_norm": 1.0240756273269653, "learning_rate": 1.9814814814814816e-05, "loss": 0.2405, "step": 1932 }, { "epoch": 1.035, "grad_norm": 1.0380420684814453, "learning_rate": 1.9796296296296297e-05, "loss": 0.2087, "step": 1933 }, { "epoch": 1.0353333333333334, "grad_norm": 1.1282161474227905, "learning_rate": 1.9777777777777778e-05, "loss": 0.2352, "step": 1934 }, { "epoch": 1.0356666666666667, "grad_norm": 1.0297683477401733, "learning_rate": 1.9759259259259262e-05, "loss": 0.2254, "step": 1935 }, { "epoch": 1.036, "grad_norm": 1.2745426893234253, "learning_rate": 1.9740740740740743e-05, "loss": 0.2996, "step": 1936 }, { "epoch": 1.0363333333333333, "grad_norm": 1.3266161680221558, "learning_rate": 1.9722222222222224e-05, "loss": 0.2534, "step": 1937 }, { "epoch": 1.0366666666666666, "grad_norm": 1.2449642419815063, "learning_rate": 1.9703703703703704e-05, "loss": 0.284, "step": 1938 }, { "epoch": 1.037, "grad_norm": 1.0897976160049438, "learning_rate": 1.968518518518519e-05, "loss": 0.2256, "step": 1939 }, { "epoch": 1.0373333333333334, "grad_norm": 0.9602470993995667, "learning_rate": 1.9666666666666666e-05, "loss": 0.204, "step": 1940 }, { "epoch": 1.0376666666666667, "grad_norm": 1.1370127201080322, "learning_rate": 1.964814814814815e-05, "loss": 0.2236, "step": 1941 }, { "epoch": 1.038, "grad_norm": 1.0259976387023926, "learning_rate": 1.962962962962963e-05, "loss": 0.2347, "step": 1942 }, { "epoch": 1.0383333333333333, "grad_norm": 0.9954286217689514, "learning_rate": 1.9611111111111115e-05, "loss": 0.2129, "step": 1943 }, { "epoch": 1.0386666666666666, "grad_norm": 1.2702150344848633, "learning_rate": 1.9592592592592592e-05, "loss": 0.2585, "step": 1944 }, { "epoch": 1.039, "grad_norm": 0.9997884631156921, "learning_rate": 1.9574074074074077e-05, "loss": 0.214, "step": 1945 }, { "epoch": 1.0393333333333334, "grad_norm": 1.1218552589416504, "learning_rate": 1.9555555555555557e-05, "loss": 0.2528, "step": 1946 }, { "epoch": 1.0396666666666667, "grad_norm": 1.1385159492492676, "learning_rate": 1.9537037037037038e-05, "loss": 0.2282, "step": 1947 }, { "epoch": 1.04, "grad_norm": 0.9886491298675537, "learning_rate": 1.951851851851852e-05, "loss": 0.2223, "step": 1948 }, { "epoch": 1.0403333333333333, "grad_norm": 1.0702970027923584, "learning_rate": 1.9500000000000003e-05, "loss": 0.2372, "step": 1949 }, { "epoch": 1.0406666666666666, "grad_norm": 1.1078321933746338, "learning_rate": 1.948148148148148e-05, "loss": 0.262, "step": 1950 }, { "epoch": 1.041, "grad_norm": 1.150516390800476, "learning_rate": 1.9462962962962965e-05, "loss": 0.2617, "step": 1951 }, { "epoch": 1.0413333333333332, "grad_norm": 1.1399508714675903, "learning_rate": 1.9444444444444445e-05, "loss": 0.2254, "step": 1952 }, { "epoch": 1.0416666666666667, "grad_norm": 1.2573822736740112, "learning_rate": 1.942592592592593e-05, "loss": 0.2864, "step": 1953 }, { "epoch": 1.042, "grad_norm": 1.4924308061599731, "learning_rate": 1.9407407407407407e-05, "loss": 0.3504, "step": 1954 }, { "epoch": 1.0423333333333333, "grad_norm": 1.2726359367370605, "learning_rate": 1.938888888888889e-05, "loss": 0.2409, "step": 1955 }, { "epoch": 1.0426666666666666, "grad_norm": 0.9332222938537598, "learning_rate": 1.9370370370370372e-05, "loss": 0.1982, "step": 1956 }, { "epoch": 1.043, "grad_norm": 1.0257881879806519, "learning_rate": 1.9351851851851853e-05, "loss": 0.1982, "step": 1957 }, { "epoch": 1.0433333333333334, "grad_norm": 1.0043282508850098, "learning_rate": 1.9333333333333333e-05, "loss": 0.249, "step": 1958 }, { "epoch": 1.0436666666666667, "grad_norm": 1.3399443626403809, "learning_rate": 1.9314814814814818e-05, "loss": 0.3184, "step": 1959 }, { "epoch": 1.044, "grad_norm": 0.9978703856468201, "learning_rate": 1.92962962962963e-05, "loss": 0.2246, "step": 1960 }, { "epoch": 1.0443333333333333, "grad_norm": 1.0570039749145508, "learning_rate": 1.927777777777778e-05, "loss": 0.2274, "step": 1961 }, { "epoch": 1.0446666666666666, "grad_norm": 1.0134309530258179, "learning_rate": 1.925925925925926e-05, "loss": 0.2091, "step": 1962 }, { "epoch": 1.045, "grad_norm": 1.01628577709198, "learning_rate": 1.9240740740740744e-05, "loss": 0.2409, "step": 1963 }, { "epoch": 1.0453333333333332, "grad_norm": 1.112223744392395, "learning_rate": 1.922222222222222e-05, "loss": 0.2177, "step": 1964 }, { "epoch": 1.0456666666666667, "grad_norm": 1.1675570011138916, "learning_rate": 1.9203703703703706e-05, "loss": 0.3389, "step": 1965 }, { "epoch": 1.046, "grad_norm": 1.1205443143844604, "learning_rate": 1.9185185185185186e-05, "loss": 0.2704, "step": 1966 }, { "epoch": 1.0463333333333333, "grad_norm": 0.9299030900001526, "learning_rate": 1.9166666666666667e-05, "loss": 0.1932, "step": 1967 }, { "epoch": 1.0466666666666666, "grad_norm": 1.0636249780654907, "learning_rate": 1.9148148148148148e-05, "loss": 0.2394, "step": 1968 }, { "epoch": 1.047, "grad_norm": 1.3086638450622559, "learning_rate": 1.9129629629629632e-05, "loss": 0.2326, "step": 1969 }, { "epoch": 1.0473333333333332, "grad_norm": 1.2588222026824951, "learning_rate": 1.9111111111111113e-05, "loss": 0.3162, "step": 1970 }, { "epoch": 1.0476666666666667, "grad_norm": 1.0554633140563965, "learning_rate": 1.9092592592592594e-05, "loss": 0.2278, "step": 1971 }, { "epoch": 1.048, "grad_norm": 1.1155823469161987, "learning_rate": 1.9074074074074075e-05, "loss": 0.2523, "step": 1972 }, { "epoch": 1.0483333333333333, "grad_norm": 1.12454092502594, "learning_rate": 1.905555555555556e-05, "loss": 0.2717, "step": 1973 }, { "epoch": 1.0486666666666666, "grad_norm": 1.1014012098312378, "learning_rate": 1.903703703703704e-05, "loss": 0.2381, "step": 1974 }, { "epoch": 1.049, "grad_norm": 1.011580228805542, "learning_rate": 1.901851851851852e-05, "loss": 0.2345, "step": 1975 }, { "epoch": 1.0493333333333332, "grad_norm": 1.1005390882492065, "learning_rate": 1.9e-05, "loss": 0.228, "step": 1976 }, { "epoch": 1.0496666666666667, "grad_norm": 1.171065092086792, "learning_rate": 1.8981481481481482e-05, "loss": 0.2904, "step": 1977 }, { "epoch": 1.05, "grad_norm": 1.1958742141723633, "learning_rate": 1.8962962962962963e-05, "loss": 0.2824, "step": 1978 }, { "epoch": 1.0503333333333333, "grad_norm": 0.9981474280357361, "learning_rate": 1.8944444444444447e-05, "loss": 0.2029, "step": 1979 }, { "epoch": 1.0506666666666666, "grad_norm": 0.9531847238540649, "learning_rate": 1.8925925925925928e-05, "loss": 0.235, "step": 1980 }, { "epoch": 1.051, "grad_norm": 0.9256868362426758, "learning_rate": 1.890740740740741e-05, "loss": 0.1946, "step": 1981 }, { "epoch": 1.0513333333333332, "grad_norm": 1.116603136062622, "learning_rate": 1.888888888888889e-05, "loss": 0.2499, "step": 1982 }, { "epoch": 1.0516666666666667, "grad_norm": 1.1806637048721313, "learning_rate": 1.887037037037037e-05, "loss": 0.2574, "step": 1983 }, { "epoch": 1.052, "grad_norm": 1.2645742893218994, "learning_rate": 1.8851851851851854e-05, "loss": 0.3083, "step": 1984 }, { "epoch": 1.0523333333333333, "grad_norm": 1.1511638164520264, "learning_rate": 1.8833333333333335e-05, "loss": 0.2669, "step": 1985 }, { "epoch": 1.0526666666666666, "grad_norm": 0.9783625602722168, "learning_rate": 1.8814814814814816e-05, "loss": 0.1964, "step": 1986 }, { "epoch": 1.053, "grad_norm": 1.2570024728775024, "learning_rate": 1.8796296296296296e-05, "loss": 0.2745, "step": 1987 }, { "epoch": 1.0533333333333332, "grad_norm": 0.9680691361427307, "learning_rate": 1.8777777777777777e-05, "loss": 0.2164, "step": 1988 }, { "epoch": 1.0536666666666668, "grad_norm": 1.010664939880371, "learning_rate": 1.875925925925926e-05, "loss": 0.1969, "step": 1989 }, { "epoch": 1.054, "grad_norm": 1.0429381132125854, "learning_rate": 1.8740740740740742e-05, "loss": 0.23, "step": 1990 }, { "epoch": 1.0543333333333333, "grad_norm": 0.8828306198120117, "learning_rate": 1.8722222222222223e-05, "loss": 0.1742, "step": 1991 }, { "epoch": 1.0546666666666666, "grad_norm": 1.0634962320327759, "learning_rate": 1.8703703703703704e-05, "loss": 0.2129, "step": 1992 }, { "epoch": 1.055, "grad_norm": 1.11493980884552, "learning_rate": 1.8685185185185184e-05, "loss": 0.2444, "step": 1993 }, { "epoch": 1.0553333333333332, "grad_norm": 0.8882637023925781, "learning_rate": 1.866666666666667e-05, "loss": 0.1851, "step": 1994 }, { "epoch": 1.0556666666666668, "grad_norm": 22.399517059326172, "learning_rate": 1.864814814814815e-05, "loss": 0.2139, "step": 1995 }, { "epoch": 1.056, "grad_norm": 1.0793142318725586, "learning_rate": 1.862962962962963e-05, "loss": 0.2191, "step": 1996 }, { "epoch": 1.0563333333333333, "grad_norm": 1.029279351234436, "learning_rate": 1.861111111111111e-05, "loss": 0.2091, "step": 1997 }, { "epoch": 1.0566666666666666, "grad_norm": 1.0435441732406616, "learning_rate": 1.8592592592592595e-05, "loss": 0.2138, "step": 1998 }, { "epoch": 1.057, "grad_norm": 0.9906209111213684, "learning_rate": 1.8574074074074076e-05, "loss": 0.2024, "step": 1999 }, { "epoch": 1.0573333333333332, "grad_norm": 1.212501049041748, "learning_rate": 1.8555555555555557e-05, "loss": 0.226, "step": 2000 } ], "logging_steps": 1.0, "max_steps": 3000, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 1000, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 2.3100610235793408e+20, "train_batch_size": 34, "trial_name": null, "trial_params": null }