papers
papers copied to clipboard
Attention Attention Everywhere: Monocular Depth Prediction with Skip Attention
論文概要
単眼Depth推定SoTAをAttentionを使い倒すことで達成。提案するSkip Attention Moduleは通常の畳み込みベースのスキップ接続とは異なり長距離依存性を持つデコーダ特徴を融合することができ、より正確な深度ラベルを導出可能。
https://arxiv.org/abs/2210.09071v1
Code
https://github.com/ashutosh1807/pixelformer