
要約
単一画像からの表面法線推定は、3次元シーン理解における重要な課題である。本論文では、既存の手法が共有する2つの制限要因に焦点を当てている:アレアトリック不確実性の推定不能と予測の詳細不足である。提案されたネットワークは、画素ごとの表面法線確率分布を推定する。我々は、この分布の新しいパラメータ化を導入し、その負の対数尤度が学習した減衰を持つ角度損失となるようにしている。角度誤差の期待値は、アレアトリック不確実性の尺度として使用される。また、推定された不確実性に基づいてサンプリングされたピクセル部分集合で訓練される画素ごとの多層パーセプトロンを使用した新しいデコーダフレームワークも提示する。提案された不確実性ガイドサンプリングは、大規模な平面領域への訓練バイアスを防ぎ、特に物体境界付近や小さな構造物での予測品質を向上させる。実験結果は、提案手法がScanNetおよびNYUv2において最先端技術を上回り、推定された不確実性が予測誤差と良好に相関することを示している。コードは https://github.com/baegwangbin/surface_normal_uncertainty で入手可能である。以上が翻訳となります。