m10303430
m10303430
Thank! But i don't understand why you set 0.0078125 scale in CASIA_train_test.prototxt. Why is not 0.00390625.Should it normalized -1 to 1 not 0 to 1? But input image is 0...
Thank But i accuracy still can't achieve as yours , my database is CASIA normalized version and i take your CASIA_train_test.prototxt and mnist_siamese_solver.prototxt to train CNN.But relu layer type i...
抱歉我可以打中文麻? 可是10-fold cross 不是就要將樣本分為10份,9份拿去訓練1份拿去測試?把那一行刪除不就等於把10份都拿去訓練?
那全部拿去訓練,這樣就不是10-fold cross了不是麻?不是應該拿9份去訓練?(如果把那行刪除,不就等於是10份都拿去訓練??) 還是是我對10-fold cross觀念有錯誤呢
所以照您說的把 tmp((testing-1)300+1:testing300,:) = []; 刪除就對了是麻?
是的 留著但是底下test的時候不就要是把這(testing-1)300+1:testing300部分的feature進行測試? 所以上下的testing必須一樣 testing = 10; tmp = pairlist_lfw.IntraPersonPair; tmp((testing-1)300+1:testing300,:) = []; train_Intra = tmp; idx = [idx;tmp(:)]; tmp = pairlist_lfw.ExtraPersonPair; tmp((testing-1)300+1:testing300,:) = []; train_Extra = tmp; 到這裡的意思不是從2701~3000的featrue刪除? 再這裡測試的時候不是要對2701~3000進行test? 所以底下的testing不能等於8要等於10?...
是的,我就是改成上下一致,但是performance很差,想請教您怎麼會這樣
不好意思我還想請問您,用CASIA data的話 siamese中data是如何創造的?
我用您提供的 lbp_lfw.mat 這個特徵去跑您提供的JB+SVM,得到的結果也只有54%,請問有哪裡做錯了麻?