Hap-Zhang
Hap-Zhang
@feifeibear 您好,我看到TurboTransformers最新版本中已经要求transformers版本为4.11.1了,对于我们之前使用transformers4.6.1版本训练出来的模型想要使用TurboTransformers来加速,需要怎么做呢?还是说训练模型的Transformers版本必须和TurboTransformers保持一致呢?
Hi,feifeibear 我仿照您提供的例子(bert_for_sequence_classification_example.py)写了个用于命名实体识别的测试程序,运行下来发现Turbo提速并不明显,请问这中间有什么潜在的注意事项吗? 
大家好, 我在hugging face上面下载了bert-base-uncased模型来测试bert_example.py脚本,操作完全按照TurboTransformers/example/python/README.md这个里面来操作,不过因为本地编译有问题,所以我这里用的是作者提供的编译好的镜像(docker pull thufeifeibear/turbo_transformers_cpu:latest),结果报以下错误: **Traceback (most recent call last): File "", line 3, in File "/opt/miniconda3/lib/python3.7/site-packages/turbo_transformers/layers/modeling_bert.py", line 495, in __call__ outputs = self.onnxmodel.run(inputs=data) AttributeError: 'BertModelNoPooler' object has no attribute...
大家好, 我在Nvidia H20机器上使用llama-factory微调baichuan2-13b的模型,按照操作指引启动训练后报出以下错误,请问有人遇到类似问题吗? > [INFO|trainer.py:1821] 2024-03-07 11:43:31,819 >> Number of trainable parameters = 13,896,668,160 0%| | 0/5789 [00:00
感谢您参与 X2Paddle 社区! 问题模版为了 X2Paddle 能更好的迭代,例如新功能发布、 RoadMaps 和错误跟踪. :smile_cat: ## 问题描述 - 错误信息 Converting node 666 ... 2022-11-09 06:28:18,955-WARNING: convert failed node:onnx__Concat_649, op_type is Resize 2022-11-09 06:28:18,956-ERROR: x2paddle threw an...