AIが交通映像を自動分析、near-missを検出で道路安全を proactive に改善
ニューヨーク市には数千台の交通監視カメラが設置されており、毎日膨大な映像データが収集されているが、その分析に人手を割くのは現実的ではない。この課題を解決するため、ニューヨーク大学Tandon工学部の研究チームが、言語と視覚のAIを統合した新技術「SeeUnsafe」を開発した。このシステムは、既存の交通映像から衝突や危険な接近(near-misses)を自動検出でき、道路安全の改善に役立つ。発表は『Accident Analysis & Prevention』誌に掲載され、ニューヨーク市の「ビジョン・ゼロ」安全戦略に貢献したとして、同市から研究賞を受賞した。 SeeUnsafeは、NYUのロボティクス・エムブデッド・インテリジェンスセンターとC2SMART交通安全研究センターの連携によって開発された。AIは、映像とテキストの両方を理解する多モーダル大規模言語モデル(MLLM)を活用し、長時間の交通映像を分析。衝突や危険な状況の発生場所と時刻を特定し、危険な交差点や道路状況を可視化。これにより、事故が起きる前に対策(標識の改善、信号の最適化、道路設計の見直し)を実施できる。 テストでは、トヨタの交通安全データセットを用いて評価。衝突・接近・通常の交通の分類で76.71%の正解率を達成。また、関与した交通参加者(車両、歩行者など)の特定は最大87.5%の精度で実現。システムは「道路安全レポート」として、自然言語で結果を説明し、天候や交通量、具体的な動きなどを含めた分析を提供する。 研究チームは、交通当局が専門知識を持たなくても、自社データを学習させずに利用できる点を強調。ただし、物体追跡の精度や暗所での性能には課題がある。今後は車載カメラとの連携により、ドライバー視点でのリアルタイムリスク評価も視野に入れている。 この取り組みは、C2SMARTが行っている他の研究(電気トラックの道路影響、スピードカメラの効果分析、消防隊の最適ルート設計など)と並び、都市交通の安全と効率化を推進する重要な一歩となっている。
