sxk000
sxk000
@tianer1986 你好,我用这个XLNet ner跑出来的效果也是很差,不知道是什么原因。你那的这个效果有提升了吗?问题解决了吗?
@tianer1986 好的,谢谢你!
conda install -c psi4 gcc-5 解决gcc的下面问题: ``` !! WARNING !! !!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! Your compiler (c++ 4.8.5) may be ABI-incompatible with PyTorch! Please use a compiler that is ABI-compatible with GCC 5.0...
目前报错如下: ``` sh finetune.sh [2024-03-19 11:08:19,740] [INFO] [real_accelerator.py:191:get_accelerator] Setting ds_accelerator to cuda (auto detect) /root/miniconda3/envs/p312qwen1.5/lib/python3.12/site-packages/transformers/deepspeed.py:23: FutureWarning: transformers.deepspeed module is deprecated and will be removed in a future version. Please import...
> 可以查看这里的预训练格式 https://github.com/modelscope/swift/blob/main/docs/source/LLM/%E8%87%AA%E5%AE%9A%E4%B9%89%E4%B8%8E%E6%8B%93%E5%B1%95.md#%E8%87%AA%E5%AE%9A%E4%B9%89%E6%95%B0%E6%8D%AE%E9%9B%86 你好 这是预训练的数据格式,对应的预训练代码或者脚本应该用哪个呢? 谢谢!
> sh和sft是一致的,除了数据集格式不一样 预训练和微调计算的loss不一样吧,可以放在一起训练吗?
是的,这里我也搞了半天,写清楚少走弯路
 Train the reward model阶段你走通了吗? pretrain用哪个啊,在哪里下载啊?
> >  Train the reward model阶段你走通了吗? pretrain用哪个啊,在哪里下载啊? > > pretrain不一定用下载的,只要是huggingface有的模型(比如'gpt2')都可以直接用。 这里我稍微修改了一下train_reward_model.py的源码,源码里面不知道为什么只用了bloom的模型,我给改成gpt2了,这样命令行的pretrain参数可以直接传'gpt2'. (但是'bloom'好像huggingface也有,所以你可以试试传一个'bloom') > > 稍微吐槽一下train_reward_model.py,model不知道为什么只有一个默认的bloom,如果可以的话最好像train_prompts.py那样改成三个, 然后传一个--model的参数。 按照@JThh 提示,不需要任何更改,这样运行就可以了:python train_reward_model.py --pretrain bigscience/bloom-560m 非常感谢各位大佬!
> To change pretrained models, kindly refer to issue #2781 for details. it works ! thanks very much !