jiayu

Results 4 comments of jiayu

我也是遇到这个问题,后面发现bin文件大小差异很大猜测可能是有优化,发现pnnx转换的时候默认开fp16=1,这里要改成fp=0后bin文件就一致了。但是目前发现inter阶段的误差很大,intra阶段倒是没有误差。[[mid]intra_rnn_out] max_abs=0.000000 mean_abs=0.000000 allclose=True [[mid]intra_fc_out] max_abs=0.000000 mean_abs=0.000000 allclose=True [[mid]intra_ln_out] max_abs=0.000001 mean_abs=0.000000 allclose=True [[mid]inter_rnn_out] max_abs=0.562364 mean_abs=0.192612 allclose=False [[mid]inter_fc_out] max_abs=0.334772 mean_abs=0.128247 allclose=False

在NCNN中Intra阶段是二维,而Inter是三维,NCNN的GRU算子输入好像是二维,似乎问题出在B*F,T,C阶段。我目前也不确定,不知道您解决了没有,有空可以一起交流一下这个问题。

参考:https://github.com/Tencent/ncnn/issues/6349

我今天转的时候也出问题,是中间的DPGRNN层转换时出现的问题,转换后chunk操作的变到了第二个维度而不是最后一个维度。 x1, x2 = torch.chunk(x, chunks=2, dim=-1) h1, h2 = torch.chunk(h, chunks=2, dim=-1) 改下param文件就可以运行了。你还可以参考:https://github.com/Tencent/ncnn/issues/5941https://github.com/Tencent/ncnn/issues/5941 问题相似