lukeewin
lukeewin
当我运行时提示:The attention mask and the pad token id were not set. As a consequence, you may observe unexpected behavior. Please pass your input's `attention_mask` to obtain reliable results. Setting `pad_token_id`...
When I run python -m speech_to_text command,console message prompts the following error: [Errno 13] Permission denied: 'D:\\Works\\Whisper\\Faster_Whisper\\models--guillaumekln--faster-whisper-base\\refs\\main' I am running on windows platform,windows 11.
Transcription of Thai audio may encounter errors midway, but if you use the 'translate' parameter, it will not encounter errors and can output the translation into English. What could be...
# 0. 微调热词模型自动结束 我设置了训练轮次为1000次,使用了300多条的数据集微调,下面是我的具体配置参数: ```shell torchrun $DISTRIBUTED_ARGS \ ../../../funasr/bin/train_ds.py \ ++model="${model_name_or_model_dir}" \ ++train_data_set_list="${train_data}" \ ++valid_data_set_list="${val_data}" \ ++dataset="AudioDatasetHotword" \ ++dataset_conf.index_ds="IndexDSJsonl" \ ++dataset_conf.data_split_num=1 \ ++dataset_conf.batch_sampler="BatchSampler" \ ++dataset_conf.batch_size=30000 \ ++dataset_conf.sort_size=1024 \ ++dataset_conf.batch_type="token" \...
# 0. 使用sensevoice中的sh脚本训练后的模型比原始模型大 训练后的模型比原始模型大很多,原始模型不到1GB,微调训练后模型文件达到了2.8GB,请问这个是正常的么?如果要使得训练后的模型大小和原始模型一样,那么我需要修改哪些地址。 谢谢,Thanks # 1. 需要使用多少数据集微调才有效果 请问一般要使用多少小时的数据集微调? # 2. 微调过程中val/loss曲线一直没有下降 微调过程中val/loss曲线一直没有下降,并且train/loss波动很大,请问这个是lr设置太小了吗?如果使用2000句话微调,那么这个lr应该设置多少,这个值是与batch_size大小有关系吗?训练中这个batch_type推荐使用token还是example或者是length?更推荐使用哪个类型?
# 0. 训练时的tensorboard曲线如何看? 下面是我在训练中截图的曲线。  请问我是看rank0还是rank1? Thanks
# 0. 微调结束后报错没有找到对应文件 报错信息如下:  # 1. 生成的model.pt文件和model.pt.best文件比原始模型大很多 训练结束后没有生成model.pt.avg模型文件 请问上面这些问题有大佬们知道如何解决吗?
# 0. 基于SenseVoiceSmall模型做微调训练时loss曲线出现负值 我在使用自己录的专业名词句子做微调训练的时候,看tensorboard中的train/loss曲线随着step的增加,这个loss曲线下降并趋于平稳,但是显示这个loss值是负数,感觉不对,请问你们有遇到过这样的问题吗?请问会是什么原因导致的呢?有大佬知道吗? 我训练的数据量只有300多句话,训练的参数是大部分使用的fineturn.sh脚本中默认值 修改之后的参数如下: ```shell torchrun $DISTRIBUTED_ARGS \ ${train_tool} \ ++model="${model_name_or_model_dir}" \ ++train_data_set_list="${train_data}" \ ++valid_data_set_list="${val_data}" \ ++dataset_conf.data_split_num=1 \ ++dataset_conf.batch_sampler="BatchSampler" \ ++dataset_conf.batch_size=20000\ ++dataset_conf.sort_size=1024 \ ++dataset_conf.batch_type="token" \ ++dataset_conf.num_workers=16 \ ++train_conf.max_epoch=550...
你好,各位大佬们,我问问如何训练方言合成模型,是要修改什么吗?还是直接可以使用这个代码仓库中的代码训练方言模型,我训练客家话模型,使用了10小时语料,训练了5000轮,音色是训练好了,但是合成的字完全听不清在讲什么,不是模糊,而是合成的音频很奇怪。因此,我问问大佬们如何训练方言模型,是否要修改某些代码或者参数。方言和普通话发音完全不同。
环境为:Ubuntu server 22.04 python: 3.11 cuda: 11.8 执行训练报下面错误: ```shell [2025-05-01 18:32:21,169][root][INFO] - Validate epoch: 1, rank: 0 [2025-05-01 18:32:21,172][root][INFO] - rank: 0, dataloader start from step: 0, batch_num: 1, after:...