Albert Ling
Albert Ling
Two 1080, 30min/epoch
Same question!
> Same question! At first I got a stupid mistake,and now my problem solved. For me, I got my datasheet in wrong format. Plz check your datasheet. (training&&Evaluation)
Hi @nvpohanh, has FP16 KV-cache been added to the TRT 8.6 GA release (TensorRT OSS 8.6.1)?
> 单个 onnx 文件不能超过 2GB [onnx/onnx#3275](https://github.com/onnx/onnx/issues/3275) 想单个 onnx 结果, > > 1. 首先改一下 pb 代码里的变量; > 2. 然后 `torch.onnx.export` 加在这里 https://github.com/tpoisonooo/transformers/blob/a515d0a77c769954ac2f0151a2a99c04d8d6cf95/src/transformers/models/llama/modeling_llama.py#L820 > > 但中间的 for 和 if 你就要自己处理。 > >...
> 可以。 onnx 支持 for/if,但如果这么做的话。为啥不直接用 torch 呢。 ONNX作为中间格式,做部署会方便些,我在尝试往TensorRT转
> > > 可以。 onnx 支持 for/if,但如果这么做的话。为啥不直接用 torch 呢。 > > > > > > ONNX作为中间格式,做部署会方便些,我在尝试往TensorRT转 > > 目前的 “ onnx 分散片” 是能直接转成功的。 感谢!我也成功转出来了,请问你试过 “ onnx 分散片” 转TRT之后,推理结果正确吗?
> > > > 可以。 onnx 支持 for/if,但如果这么做的话。为啥不直接用 torch 呢。 > > > > > > > > > ONNX作为中间格式,做部署会方便些,我在尝试往TensorRT转 > > > > > > 目前的 “ onnx 分散片”...