hejing-maker
hejing-maker
大佬,你使用的mobilenet 是不是修改过的,因为它的输入是192*192而不是224*224,小白提问。
我看了大佬的代码,感觉在VGG的第一个特征图做输出时,把BN层放在RELU之后了,不是应该在之前吗?
WFLW数据集本身只是一个2D的数据集7500用于训练 2500用于测试,但是大佬在这做了数据增强(旋转,镜像等),而不是用prnet做3D的数据集?镜像的话会不会关键点会不准呢?求大佬解释,谢谢
模型精度问题
感谢你的分享和工作! 问题:我自己训练出来的基于ALFW98点数据集的模型相比你给的模型,错误率高了10个点,不知道是哪里有问题,万分感谢。
下面是我的转换代码,只是训练是单GPU训练。 """ This code is used to convert the pytorch models into an onnx format models. """ import torch.onnx from collections import OrderedDict from model import carn_m import os import...
参数请教?
首先感谢你的开源,我在读代码的时候发现损失函数的权重参数和论文中有些不同,论文中提到:The weights Wcol and WtvA are set to 0.5, and 20,但是我看代码中设置为: Loss_TV = 200*L_TV(A) loss_spa = torch.mean(L_spa(enhanced_image, img_lowlight)) loss_col = 5*torch.mean(L_color(enhanced_image)) loss_exp = 10*torch.mean(L_exp(enhanced_image)) 请问影响大吗?