|
{
|
|
"additional_special_tokens": [
|
|
"__af__",
|
|
"__am__",
|
|
"__ar__",
|
|
"__ast__",
|
|
"__az__",
|
|
"__ba__",
|
|
"__be__",
|
|
"__bg__",
|
|
"__bn__",
|
|
"__br__",
|
|
"__bs__",
|
|
"__ca__",
|
|
"__ceb__",
|
|
"__cs__",
|
|
"__cy__",
|
|
"__da__",
|
|
"__de__",
|
|
"__el__",
|
|
"__en__",
|
|
"__es__",
|
|
"__et__",
|
|
"__fa__",
|
|
"__ff__",
|
|
"__fi__",
|
|
"__fr__",
|
|
"__fy__",
|
|
"__ga__",
|
|
"__gd__",
|
|
"__gl__",
|
|
"__gu__",
|
|
"__ha__",
|
|
"__he__",
|
|
"__hi__",
|
|
"__hr__",
|
|
"__ht__",
|
|
"__hu__",
|
|
"__hy__",
|
|
"__id__",
|
|
"__ig__",
|
|
"__ilo__",
|
|
"__is__",
|
|
"__it__",
|
|
"__ja__",
|
|
"__jv__",
|
|
"__ka__",
|
|
"__kk__",
|
|
"__km__",
|
|
"__kn__",
|
|
"__ko__",
|
|
"__lb__",
|
|
"__lg__",
|
|
"__ln__",
|
|
"__lo__",
|
|
"__lt__",
|
|
"__lv__",
|
|
"__mg__",
|
|
"__mk__",
|
|
"__ml__",
|
|
"__mn__",
|
|
"__mr__",
|
|
"__ms__",
|
|
"__my__",
|
|
"__ne__",
|
|
"__nl__",
|
|
"__no__",
|
|
"__ns__",
|
|
"__oc__",
|
|
"__or__",
|
|
"__pa__",
|
|
"__pl__",
|
|
"__ps__",
|
|
"__pt__",
|
|
"__ro__",
|
|
"__ru__",
|
|
"__sd__",
|
|
"__si__",
|
|
"__sk__",
|
|
"__sl__",
|
|
"__so__",
|
|
"__sq__",
|
|
"__sr__",
|
|
"__ss__",
|
|
"__su__",
|
|
"__sv__",
|
|
"__sw__",
|
|
"__ta__",
|
|
"__th__",
|
|
"__tl__",
|
|
"__tn__",
|
|
"__tr__",
|
|
"__uk__",
|
|
"__ur__",
|
|
"__uz__",
|
|
"__vi__",
|
|
"__wo__",
|
|
"__xh__",
|
|
"__yi__",
|
|
"__yo__",
|
|
"__zh__",
|
|
"__zu__"
|
|
],
|
|
"bos_token": "<s>",
|
|
"clean_up_tokenization_spaces": true,
|
|
"eos_token": "</s>",
|
|
"language_codes": "m2m100",
|
|
"model_max_length": 1024,
|
|
"num_madeup_words": 8,
|
|
"pad_token": "<pad>",
|
|
"sep_token": "</s>",
|
|
"sp_model_kwargs": {},
|
|
"src_lang": null,
|
|
"tgt_lang": null,
|
|
"tokenizer_class": "M2M100Tokenizer",
|
|
"tokenizer_file": null,
|
|
"unk_token": "<unk>"
|
|
}
|
|
|