hrnet-pytorch icon indicating copy to clipboard operation
hrnet-pytorch copied to clipboard

关于开启FP16训练速度大幅下降

Open jctc1234 opened this issue 3 years ago • 10 comments

伟大的up、尊敬的b站硕导,您好。在本项目中开启混合精度训练后训练速度大幅度下降,训练时间约为原来的3倍。同时尝试在up的pspnet库中采用了混合精度训练,速度也大幅下降。请问可能是什么原因呢。。 配置:2700x+1660显卡+24g内存

jctc1234 avatar Apr 11 '22 05:04 jctc1234

好像是我的显卡没有tensorcore 哈哈哈,呜呜呜呜呜

jctc1234 avatar Apr 11 '22 06:04 jctc1234

tensor core?

bubbliiiing avatar Apr 13 '22 16:04 bubbliiiing

20系以上的游戏显卡才有 哭 Tensor Core 是 NVIDIA 的先进技术,可实现混合精度计算,并能根据精度的降低动态调整算力,在保持准确性的同时提高吞吐量。从Volta到Turing到Ampere,Tensor Core已经发展了三代,它的功能也从只支持FP16混合精度的训练,到支持训练,支持FP64的计算。Tensor Core已经具备了很好的通用性。

第一代Tensor Core,为AI而生 第一代Tensor core首次出现在Volta架构,通过 FP16 和 FP32 下的混合精度矩阵乘法提供了突破性的性能 – 与 NVIDIA Pascal 相比,用于训练的峰值 teraFLOPS (TFLOPS) 性能提升了高达 12 倍,用于推理的峰值 TFLOPS 性能提升了高达 6 倍。这项关键功能使 Volta 提供了比 Pascal 高 3 倍的训练和推理性能。

jctc1234 avatar Apr 14 '22 08:04 jctc1234

0 0 可是我的笔记本也是1660ti,效果还可以啊

bubbliiiing avatar Apr 15 '22 17:04 bubbliiiing

天啊,竟然是这样的,虽然1660ti没有tensorcore,但是直接配备了独立的fp16模块。总之就是低端卡不行啦,哈哈。

GTX 1660 Ti有何不同?——专用的FP16单元GTX 1660 Ti的图灵SM架构划分成四个处理块,每个处理块拥有1个Warp调度器/调度单元、1个L0指令缓存、1个64KB寄存器、16个FP32单元、16个INT32单元以及独立的FP16单元。 最大区别在于TU102/104/106核心中,FP16单元是由Tensor Core提供的。

---原始邮件--- 发件人: @.> 发送时间: 2022年4月16日(周六) 凌晨1:39 收件人: @.>; 抄送: @.@.>; 主题: Re: [bubbliiiing/hrnet-pytorch] 关于开启FP16训练速度大幅下降 (Issue #1)

0 0 可是我的笔记本也是1660ti,效果还可以啊

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

jctc1234 avatar Apr 18 '22 02:04 jctc1234

不好意思。。我的显卡是1066.。。一开始我就说错了。。。十分抱歉。 经测试,3090开启后确实显著显存下降且训练速度略有提高。确实是1066不支持混合精度

jctc1234 avatar Apr 18 '22 15:04 jctc1234

0 0

bubbliiiing avatar Apr 18 '22 15:04 bubbliiiing

好的

bubbliiiing avatar Apr 18 '22 15:04 bubbliiiing

查了一下游戏显卡只有20系以上的显卡才有tensorcore,才支持混合精度😂当然也不一定对

---原始邮件--- 发件人: @.> 发送时间: 2022年4月14日(周四) 凌晨0:16 收件人: @.>; 抄送: @.@.>; 主题: Re: [bubbliiiing/hrnet-pytorch] 关于开启FP16训练速度大幅下降 (Issue #1)

tensor core?

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

jctc1234 avatar Oct 11 '22 07:10 jctc1234

不好意思,我发现我一开始就写错了。。我是1066,不好意思不好意思

---原始邮件--- 发件人: @.> 发送时间: 2022年4月16日(周六) 凌晨1:39 收件人: @.>; 抄送: @.@.>; 主题: Re: [bubbliiiing/hrnet-pytorch] 关于开启FP16训练速度大幅下降 (Issue #1)

0 0 可是我的笔记本也是1660ti,效果还可以啊

— Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you authored the thread.Message ID: @.***>

jctc1234 avatar Oct 11 '22 08:10 jctc1234