File size: 1,222 Bytes
ab60a05 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
import json
import tokenizers
# unicode exemplar json
with open("lang_exemplars.json") as file_handle:
unicode_exemplars = json.load(file_handle)
# (17411, 'a')
print(len(unicode_exemplars),unicode_exemplars[0])
# ksx-1001 that includes 2350 korean "exemplar" characters
with open("ksx-1001.txt") as file_handle:
kor_exemplar = file_handle.readlines()[0].split()
# (2350, '가')
len(kor_exemplar), kor_exemplar[0]
# initialize bytelevel tokenizer
ByteLevel = tokenizers.pre_tokenizers.ByteLevel(False,False)
# make new bytelevel exemplar json
byte_exemplars = []
for exemplar in unicode_exemplars:
byte_exemplars.append(ByteLevel.pre_tokenize_str(exemplar)[0][0])
byte_exemplars = sorted(byte_exemplars,key=lambda x: [x,len(x)])
len(byte_exemplars), byte_exemplars[0]
# make new korean bytelevel exemplar json
kb_exemplar = []
for exemplar in kor_exemplar:
kb_exemplar.append(ByteLevel.pre_tokenize_str(exemplar)[0][0])
kb_exemplar = sorted(kb_exemplar,key=lambda x: [x,len(x)])
len(kb_exemplar), kb_exemplar[0]
# write new byte_exemplar json. ensure_ascii=False is important
with open("byte_exemplars.json","w") as out_handle:
json.dump(byte_exemplars,out_handle,ensure_ascii=False, indent=2)
|