LShi

Results 27 comments of LShi

but there will be much errors then.

Thanks for your reply! I don't know why there is no cuda_config.h, maybe it is because I installed tensorflow with conda. Then I compiled it with the recommend method: TF_INC=$(python...

Thanks, but I have used it and it can't help. Finally I reinstall the gcc an g++ with version 4.8. And it can run demo now. But there is a...

Sorry, but I have no plan for this now. Welcome for the contribution.

https://github.com/lshiwjx/2s-AGCN/blob/de1b7e098226682816e5578f31ebd0613477a671/model/agcn.py#L95-L102 A, PA and A1

提供信息太少了。不过融合代码其实挺简单的,我建议你看一下就应该能看出问题了 707687531 邮箱[email protected] 签名由 网易邮箱大师 定制 On 07/27/2019 20:22, Emma-99 wrote: 您好,我想请教一下为什么我融合的结果完全不对,在joint和bone上分别训练都有93%以上的准确率,融合之后结果1.7%,ensemble.py文件没有改动,不知道是哪里出了问题。希望能得到您的回复,非常感谢! — You are receiving this because you are subscribed to this thread. Reply to this email directly, view...

测试时dataloader不要随机就好了: shuffle=False

感谢你的提醒: 1. 这里是我写错了,在原来文章上改得,没注意到。 2. tanh是会好一些,但公式上不是很优美,我会把他当成一个trick再后面实验中提一下。 3. 这里是指三个模块顺序执行更好一些,不是说吧结果concat起来 4. warm up每个实验都用了,所以没有必要特别指明其提升吧,也不是什么贡献。 关于softmax和tanh的比较,你的解释很好,但我想取绝对值再softmax和tanh相比不应该自由度更差一些吗,你在实验中发现取绝对值再softmax要比tanh更好吗?

tanh是-1到1嘛,也不算无限吧。nlp论文都是用softmax,而且确实他们用tanh不如softmax。我也很疑惑这一点。 平滑学习率这一点我试过cosine下降lr,不如0.1.我觉得虽然说看着loss震荡了点,但震荡不代表不好,他更容易跳出局部最优。不过可以试试减小点学习率?我没太多研究过学习率的问题。

我当时也是看了别人的代码,我当时的理解是对于不同的feature,他的偏移量也应该是不同的。如果把channle_per_deformable_group取成与上一层channel数一样的话,那所有channel也就都是同样的偏移了,也就可以减少你说的参数量。这个根据应该根据需求调整