
要約
本稿では、物体またはシーンの異なる視点間で信頼性の高いマッチングを実現するための、画像から特徴的な不変特徴量を抽出する手法を提示する。これらの特徴量は画像のスケールおよび回転に対して不変であり、アフィン変形の広範な範囲、3次元視点の変化、ノイズの追加、照明条件の変化に対しても堅牢なマッチングを実現することが示された。また、これらの特徴量は極めて特徴的であり、多数の画像から得られた特徴量データベースとの間で、単一の特徴量が高確率で正しくマッチング可能であることが確認された。本稿では、これらの特徴量を用いた物体認識のアプローチについても記述する。認識プロセスは、高速な最近傍探索アルゴリズムを用いて個々の特徴量を既知物体の特徴量データベースとマッチングさせ、その後、ホフ変換により同一物体に属するクラスタを特定し、最後に最小二乗法による解を用いて一貫性のある姿勢パラメータを検証する。この認識手法は、雑多な背景や遮蔽が存在する状況下でも物体を堅牢に同定可能であり、ほぼリアルタイムの性能を達成している。