BertBasedCorrectionModels icon indicating copy to clipboard operation
BertBasedCorrectionModels copied to clipboard

PyTorch impelementations of BERT-based Spelling Error Correction Models. 基于BERT的文本纠错模型,使用PyTorch实现。

Results 11 BertBasedCorrectionModels issues
Sort by recently updated
recently updated
newest added

用你的配置训练的bert纠错模型,用你的评测脚本: ``` Sentence Level: acc:0.793636, precision:0.828810, recall:0.732472, f1:0.777669 ``` 使用realise模型的评测脚本: ``` {'sent-detect-acc': 82.18181818181817, 'sent-detect-p': 72.86689419795222, 'sent-detect-r': 78.9279112754159, 'sent-detect-f1': 75.77639751552793, 'sent-correct-acc': 79.9090909090909, 'sent-correct-p': 68.60068259385666, 'sent-correct-r': 74.3068391866913, 'sent-correct-f1': 71.33984028393967} ``` 你只在src ==...

sentence level:一个句子怎样算做一个正例,怎样算作一个反例呢,是句子里有若干个错误都被纠正了才算正例嘛

Could you release softMaskedBert model for evaluation?

enhancement

Great work, I wonder if this approach can be adopted for other languages.?

train_SoftMaskedBert中的HYPER_PARAMS数值,是指关于detection loss 与 correction loss的权重占比吗? 这个数值是应用于CscTrainingModel.training_step下的loss = self.w * outputs[1] + (1 - self.w) * outputs[0]吗? 0.8: detection*0.2 + correction*0.8 我是否可以通过修改该数值达到模型侧重于提高detection的prf

博主您好,关于这个代码的数据集链接已经失效(从 http://nlp.ee.ncu.edu.tw/resource/csc.html下载SIGHAN数据集),因为是第一次涉及这个任务,不太清楚数据集的格式等问题,还是想用您提供好的链接数据集,不知道是否方便上传一下相关数据集的文件,或者是否有新的链接也可以下载该代码所用的数据集文件,期待您的回复。

请问可以处理英文吗,处理标点符号这些