KR BERT:基于KoRean的BERT预训练模型(KR BERT)用于Tensorflow和PyTorch 源码
基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,145,233 资料大小 -- (维基百科数据适用于104种语言) 23GB 4.7B语素 --
文件列表
KR-BERT-master.zip
(预估有个93文件)
KR-BERT-master
README.md
9KB
krbert_tensorflow
tokenization.py
12KB
bert_config_subchar12367.json
313B
optimization.py
7KB
tokenization_ranked.py
15KB
vocab_char_16424.txt
101KB
bert_config_char16424.json
313B
models
暂无评论