papers icon indicating copy to clipboard operation
papers copied to clipboard

Attention Attention Everywhere: Monocular Depth Prediction with Skip Attention

Open tkuri opened this issue 3 years ago • 0 comments

論文概要

単眼Depth推定SoTAをAttentionを使い倒すことで達成。提案するSkip Attention Moduleは通常の畳み込みベースのスキップ接続とは異なり長距離依存性を持つデコーダ特徴を融合することができ、より正確な深度ラベルを導出可能。

bib_20221019 00 https://arxiv.org/abs/2210.09071v1

Code

https://github.com/ashutosh1807/pixelformer

tkuri avatar Oct 22 '22 02:10 tkuri