Xinzhi Wang
Xinzhi Wang
数据集处理方式不一样的
The loss looks normal, maybe caused by the difference in batch-size. This is my result in 128 batch-size. 
那你就把缺失的文件放到这个路径下
正常情况,因为数据集具有随机性(从全量数据集中随机选择训练集、测试集、验证集),无法保证和DCMH论文中保持一致,并且数据集的选取方式也和DCMH中不同。因此该领域的所有论文都不应该参考别人论文中的结果,而是需要你使用自己的数据集重新跑一遍得出结果。DCMH结果可以参考我论文中的结果。 使用我提供的数据集和相关的数据选取代码可以减少重复训练的工作量。
这里我们需要对输出的hash值进行一个是否相似的判断,为了更直观的进行判断,这里采用-1和1进行表示而不是0和1,对于不相似的俩个instance,其hamming距离会尽可能地小且为负数,相似的会尽可能大且为正数; 这样我们获取到了俩个数量级相同单符号不同的hamming距离,这样就可以进行等量的比较和学习。 可以思考一下,如果hash采用0和1,那么该如何平衡正负样本的loss值呢?这里采用-1和1只是方便loss计算。
请先阅读readme的内容,按照要求下载指定数据集文件和index文件放于指定位置
论文中应该有写,剔除了部分数据量太小的label
自行google相关的数据集官网,从官网下载。
检查代码是否img_hash和img_buffer都是cuda数据,如果不是就改掉
几年前写的代码了,忘记了,你参考DCMH的代码review下吧。