694344851

Results 7 comments of 694344851

原来是这样,明白了,请问一下,我这边想要做中文的text2sql任务,finetune大概需要多少的数据量,多少内存,以及几张卡

那个我看了,是可以选的,等于说两者之间没有什么关联么。选了一个另一个就没有作用了

DATA_ROOT=./GLM-main/data CHECKPOINT_PATH=./GLM-main/models_glm SAVE_PATH=./GLM-main/data/finetune_checkpoints DATESTR=$(date +"%m-%d-%H-%M") source $1 # Model source $2 # Task #NUM_WORKERS 预训练的服务器的数量 #num_gpu GPU的数量 #主机文件的路径 主机名或者ssh别名 #mp_size 模型并行的大小 NUM_WORKERS=1 NUM_GPUS_PER_WORKER=4 HOST_FILE_PATH="./hostfile" MP_SIZE=4 MASTER_PORT=$(shuf -n 1 -i 10000-65535)...

你好,我想知道,将模型分为几个部分之后,您那边的load-pretrained 的模型地址里都包含什么东西,就是checkpoint_path应该什么设置

test.source test.target train.source train.target val.source val.target 格式也是遵循你们之前设计的格式,内容主要是中文的text2sql数据集 我发现应该是 config/seq_customization.sh 中的eval-interval 参数的问题,在参数为1000 的时候就卡住了,应该怎么解决