陳羿豐 Yi-Feng Chen
陳羿豐 Yi-Feng Chen
Sorry I mean, each test query is N-seconds of contiguous samples from test music, not N uniform offsets from [0s, 0.5s).
The torrent seems down. Academic torrents shows no seeds. Can you check the server?
地標法的程式放在 https://github.com/stdio2016/pfa 只是目前還沒有文件
之後會加上README說明編譯和執行方法
由於我在原論文發布原始碼之前就嘗試重現,因此有部分的參數和原論文不同 主要的差異在於查詢資料產生,可以參考 mimbres/neural-audio-fp#14
如果要盡量接近原論文,可以用 genquery_naf.py 來產生查詢資料
抱歉我現在已經沒有可用的電腦來重現我過去的結果了,還在努力賺錢中
genquery_naf.py是我參考原始論文後,重新實作的查詢產生器,精准度的結果較接近原論文 genquery.py是我的論文的設定,也是在原論文正式發表前,我對該論文查詢產生方法的猜測 原論文產生查詢時,是從音樂隨機取出多個1秒片段,並拼接成N秒,見genquery_naf.py第53\~66行及第87\~94行 我產生查詢是直接從音樂取出連續的N秒,見genquery.py第49~59行
原論文的程式碼並不會產生查詢音訊檔,而是沿用訓練時的資料擴增程式碼,從測試音樂中每0.5秒取出1秒音訊,並將這些有重疊的音訊片段輸入神經網路後預先計算輸出向量。 我的程式碼原本意圖用來輸入使用者提供的10秒查詢,因此我的程式碼需要輸入連續的N秒音訊作為查詢音檔,原論文產生的有重疊的查詢片段和我的查詢系統不相容,我無法使用原論文的測試資料來測試
The usage of `builder.py` and `matcher.py` is similar to MIREX audio fingerprint format. I will add the document.