zhanghanweii

Results 22 issues of zhanghanweii

我是用10w条数据进行下游任务微调时(恢复标点和大小写),+qa等各种方法生成的回答都是随机的

这么模型在做类似纠错任务时,会改变原句子结构吗。我尝试了一些大模型,微调后用于纠错测试,模型会在原句的基础上进行续写,或者是直接改变了原句

### Is your feature request related to a problem? Please describe. 模型微调是不是可以参考chatglm-6b中的微调方式 ### Solutions 模型微调是不是可以参考chatglm-6b中的微调方式 ### Additional context _No response_

请问CT-transformer多任务训练时的数据集是一套数据吗,也就是一条数据对应两个任务的标签。还是说两个任务的数据都是不同的呢,另外如果数据不同的话,两个任务的数据量是否相同呢

作者您好,我注意到[ModelScope]的后处理标点恢复部分能够处理中文、英文以及中英混的情况,请问作者在后处理部分模型训练时,数据集是如何构建的呢? 比如中英混,中英混数据是通过什么方法构建的,谢谢作者

The link to Colab for fine-tuning shows that the file does not exist

您好,为什么我下载了百度300d的embedding,再加载时有些词的embedding的dim是299呢

作者你好,请问有在英文数据集中进行实验的效果吗

请问在task中,对NER的多任务形式训练代码体现在哪里呢,只看到了SuperGLUE的多任务训练方法

Is the OntoNotes5.0 dataset marked by Spacy?