may0324

Results 7 comments of may0324

@Richardsix I have met the same problem and fixed it by referencing : https://stackoverflow.com/questions/39274472/error-function-atomicadddouble-double-has-already-been-defined

@jjkke88 保存时发生crash应该跟代码无关,可以检查一下是不是磁盘空间不够等问题

@daimagou 直接用caffe跑出来的模型依然是原始大小,因为模型依然是.caffemodel类型,虽然大部分权值为0且共享,但每个权值依然以32float型存储,故后续只需将非零权值及其下标以及聚类中心存储下来即可,这部分可参考作者论文,写的很详细。

@xiaohu2015 deep compression 需要读入已训练好的模型做压缩,在LayerSetUp函数中,每层仅仅做了内存分配但未读入已训模型,因此此时的模型参数是随机初始化的,需要在CopyTrainedLayersFrom函数中调用ComputeBlobMask函数

@pgadosey i will show my code later for reference

@guozhongluo 实测在PC端提速效果不明显,因为大量权值为0 采用矩阵加速库影响不会很大,移动端有一定的提升

@suke27 pc端由于采用了矩阵加速库,所以提速不明显,移动端稍有提升