xiaoye
xiaoye
【报名】:24、25
【报名】28、29
【报名】12、17、26
【报名】4、5、8、10、11
【报名】:22
https://github.com/delta-lab-ai/data_efficient_nopt/blob/main/pretrain_basic.py#L262 @wangguan1995 paddle目前没有gaussian_br的实现吗
> > https://github.com/delta-lab-ai/data_efficient_nopt/blob/main/pretrain_basic.py#L262 @wangguan1995 paddle目前没有gaussian_br的实现吗 > >  目前没有 ok,已经参考实现了paddle的gaussian_blur
> 如果有可复现的精度结果,可以日志截图到github+上传log,这边可以开始测试 目前复现了一下poisson fno 预训练,pd和pt没有固定随机数种子,所以前期loss会有差异,经过几百个step后趋势一致。 复现结果和论文中有点差异,猜测超参哪里有差异,论文上没看到相关描述:
poisson fno推理结果,采用官方提供权重. ``` # torch RMSE: 0.25861763998531323 RMSE (normalized) 0.14146761527157586 R2: 0.9765389656726264 Slope: 0.9752451781576813 # paddle RMSE: 0.25861764924824066 RMSE (normalized) 0.14146758505387425 R2: 0.9765389632378143 Slope: 0.9752452311012886 ```
> > 如果有可复现的精度结果,可以日志截图到github+上传log,这边可以开始测试 > > 目前复现了一下poisson fno 预训练,pd和pt没有固定随机数种子,所以前期loss会有差异,经过几百个step后趋势一致。 > 复现结果和论文中有点差异,猜测超参哪里有差异,论文上没看到相关描述: 前10个step对比:  paddle: ``` Epoch 1 Batch 0 Train Loss 0.3359823226928711 train_l2 loss 1.0018577575683594 train_rmse loss 0.7787399888038635 Total Times. Global...