
要約
イベントカメラは、空間的・時間的明るさの変化を検出することでイベントを出力する画像センサーであり、高いダイナミックレンジと低遅延を特徴とする新しいパラダイムをもたらしている。従来の研究では、畳み込みニューラルネットワーク(CNN)を導入することで、イベントベースの動画再構成において顕著な性能向上が達成されている。しかし、畳み込み演算の固有の局所性は、多くの視覚タスクにおいて重要な長距離依存関係をモデル化する能力に限界がある。本論文では、CNNの細かい局所情報とTransformerのグローバルな文脈情報を両立するハイブリッドCNN-Transformerネットワーク(ET-Net)を提案する。さらに、トークン空間内における内部的および交差する意味的コンセプトを関連付けるため、マルチスケールのトークン統合を実現する「トークンピラミッド集約(Token Pyramid Aggregation)」戦略を導入した。実験結果から、提案手法が複数の実世界イベントデータセットにおいて、最先端の手法を上回る優れた性能を達成することが明らかになった。コードは以下のURLで公開されている:https://github.com/WarranWeng/ET-Net