embedding
embedding
> 应该是没有用到全部的信息 建议从这里下载数据集 https://github.com/dbiir/UER-py/wiki/Datasets
目前我们还不支持 后续我们会尽快加上unilm Google T5 encoder-decoder预训练之类的工作
您好 目前我们的中文模型统一使用的是Google官方的中文vocab文件。这个文件在models文件夹中有提供 同样,BERT-large的config文件(bert_large_config.json)也在models文件中
We have uploaded the prompt file (https://github.com/dbiir/UER-py/commit/e7c76530879760e3fd740831d23eac6acc233215). Thanks for your advice!
您好 https://github.com/dbiir/UER-py/wiki/Competition-solutions 这里给出了在CLUE上训练的细节,包括tnews, iflytek, ocnli数据集 https://github.com/dbiir/UER-py/wiki/Modelzoo#chinese-roberta-pre-trained-weights 这里给出了复现表格中Roberta-tiny的细节 使用run_text2text.py微调应该加载T5、BART等seq2seq模型
hi 是的,analogy准确率越好,准确率越高代表做对的analogy问题越多;spearman rank也是越高越好,越高代表算法的结果和人类给出的结果越接近
I have the same problem! All outputs (in decoding stage) are the same! could you tell me the reason? Thank you very much!