
要約
2D画像の背後にある3D世界をモデリングする際、どの3D表現が最も適しているでしょうか?ポリゴンメッシュはそのコンパクトさと幾何学的特性から有望な候補です。しかし、ニューラルネットワークを使用して2D画像からポリゴンメッシュをモデリングすることは容易ではありません。なぜなら、メッシュから画像への変換、つまりレンダリングには、バックプロパゲーションを妨げる離散的な操作であるラスタライゼーションが含まれるためです。そこで本研究では、ラスタライゼーションの近似勾配を提案し、レンダリングをニューラルネットワークに統合することを可能にします。このレンダラーを使用することで、シルエット画像の監督下で単一画像からの3Dメッシュ再構成を行い、既存のボクセルベースアプローチを上回る結果を得ました。さらに、2D監督下での2D-3Dスタイル転送や3D DeepDreamなどの勾配に基づく3Dメッシュ編集操作を初めて実行しました。これらの応用例は、メッシュレンダラーをニューラルネットワークに統合することの可能性と、我々が提案したレンダラーの有効性を示しています。