Command Palette
Search for a command to run...
PRIX:エンドツーエンド自動運転におけるロープレキシスから学ぶ計画
PRIX:エンドツーエンド自動運転におけるロープレキシスから学ぶ計画
Maciej K. Wozniak Lianhang Liu Yixi Cai Patric Jensfelt
概要
現在のエンド・トゥ・エンド自律走行モデルは有望な結果を示していますが、実用的な展開はしばしばモデルの巨大なサイズ、高価なLiDARセンサーへの依存、そして計算量の多いBEV(Bird's Eye View)特徴表現に妨げられています。これにより、カメラのみを装備した大規模市場向け車両においてはスケーラビリティが制限されるため、実用的な展開が困難です。これらの課題に対処するため、我々は「PRIX(Plan from Raw Pixels)」を提案します。この新しいかつ効率的なエンド・トゥ・エンド走行アーキテクチャは、明示的なBEV表現を用いず、LiDARセンサーを必要とせずにカメラデータのみで動作します。PRIXは、視覚特徴抽出器と生成型計画ヘッドを組み合わせ、直接に生のピクセル入力から安全な軌跡を予測します。本アーキテクチャの中心となる要素は、「Context-aware Recalibration Transformer(CaRT)」という新しいモジュールであり、これはより頑強な計画を可能にするために多段階の視覚特徴を効果的に強化するように設計されています。我々は、NavSimおよびnuScenesのベンチマークにおいて、PRIXが最先端の性能を達成することを実験によって示しました。これは、より大きなマルチモーダルな拡散計画器と同等の能力を持つものの、推論速度およびモデルサイズにおいてははるかに効率的であるため、実世界での展開に実用的な解決策となります。本研究のコードはオープンソースであり、公開されているURL(https://maxiuw.github.io/prix)からアクセス可能です。