|
import json |
|
import tokenizers |
|
|
|
|
|
with open("lang_exemplars.json") as file_handle: |
|
unicode_exemplars = json.load(file_handle) |
|
|
|
|
|
print(len(unicode_exemplars),unicode_exemplars[0]) |
|
|
|
|
|
with open("ksx-1001.txt") as file_handle: |
|
kor_exemplar = file_handle.readlines()[0].split() |
|
|
|
|
|
len(kor_exemplar), kor_exemplar[0] |
|
|
|
|
|
ByteLevel = tokenizers.pre_tokenizers.ByteLevel(False,False) |
|
|
|
|
|
byte_exemplars = [] |
|
for exemplar in unicode_exemplars: |
|
byte_exemplars.append(ByteLevel.pre_tokenize_str(exemplar)[0][0]) |
|
byte_exemplars = sorted(byte_exemplars,key=lambda x: [x,len(x)]) |
|
len(byte_exemplars), byte_exemplars[0] |
|
|
|
|
|
kb_exemplar = [] |
|
for exemplar in kor_exemplar: |
|
kb_exemplar.append(ByteLevel.pre_tokenize_str(exemplar)[0][0]) |
|
kb_exemplar = sorted(kb_exemplar,key=lambda x: [x,len(x)]) |
|
len(kb_exemplar), kb_exemplar[0] |
|
|
|
|
|
with open("byte_exemplars.json","w") as out_handle: |
|
json.dump(byte_exemplars,out_handle,ensure_ascii=False, indent=2) |
|
|