DeepDetector

Results 10 comments of DeepDetector

好的,十分感谢!

学长您好~我发现您的论文中有关于模型参数和训练时间的实验对比,请问这是要自己复现的还是?(因为没有发现原论文有相关数据)

> 您好,训练时间(包括预处理和训练)这部分的数据大部分都是我自己复现的,我是相同的CPU和GPU环境设置下进行的实验。其中预处理的部分统一采用的是OpenFace的工具包,训练的部分X-Ray和TSN这两个模型是预估的时间,前者是根据它数据增强的倍数(相当于数据集扩大了多少倍)推测的,后者是根据TSN原论文中描述的训练时间估算的。 了解~谢谢学长

学长您好,有个新问题想要请教一下您,是关于跨数据集的实验。 当训练和测试在不同数据集时,随着训练的进行在测试集也不好收敛,这时AUC是怎么取?(取最高还是平均值)

> 你好你好,我是这样操作的:选取的模型参数是训练和测试在同一个数据集下,测试集性能最好的那个参数,然后拿这个参数去不同的数据集上进行评估。最后多次重复上述的步骤,取平均,得到模型的跨数据集泛化性能。 我感觉这样评估应该会更加公平😄 因为测试跨数据集性能模拟的就是现实场景中不知道测试数据分布的情况,所以选用的模型参数自然只能用自己手中已有的那部分数据来确定。 了解~谢谢学长再次答疑解惑😄

Hey,I extract feature data(celeb-v2) with shape (761334,32,32,3), it will out of memory when i run model.py So how do you run the large dataset? Thanks!

Thank you for the response! And looking forward to your update~

Thank you!The new saab.py work. But this time the issue is xgboost,it still need much memory. ![K1_D4{9 }~J8)U)~P($JN6Q](https://user-images.githubusercontent.com/19606959/147797781-407c4936-55a0-444a-8e07-9c8c1ed64748.png)

> []( > > https://github.com/hongshuochen/DefakeHop/blob/941efb6a3d11b59bf0c4d56c95f75612a9f4da4e/defakeHop.py#L155 > > ) > Change gpu_hist to hist Thank you for your response! But now I hava the same issue as @wasim004 I updata saab.py...

Hey,i guess the issue is still about out of memory.I entered three shapes: 1) (100000,32,32,3): It work! 2) (134069,32,32,3): Killed. 3) (761334,32,32,3): MemoryError: Unable to allocate array with shape (761334,32,32,3)....