Helm.ai stellt Level-3-Stadtperceptionssystem mit ISO-26262-Komponenten vor.
Helm.ai, ein führender Anbieter fortschrittlicher KI-Software für hochwertige Fahrerassistenzsysteme (ADAS), autonomes Fahren und Robotik-Automatisierung, hat Helm.ai Vision vorgestellt. Dieses produktionstaugliche Urban-Perception-System ist speziell für Level 2+ und Level 3 autonome Fahrzeuge im Massenmarkt entwickelt worden. Helm.ai Vision bietet präzise, zuverlässige und umfassende Wahrnehmungsfähigkeiten, die Automobilherstellern eine skalierbare und kosteneffiziente Lösung für das Autonomfahreng in städtischen Bereichen ermöglichen. Helm.ai Vision wurde von UL Solutions auf ASPICE Capability Level 2 überprüft und erfüllt die ISO 26262 ASIL-B(D) Anforderungen für seine Perceptionskomponenten als Software-Sicherheitselemente aus dem Kontext (SEooC) für Level 2+ Systeme. Die ASIL-B(D) Zertifizierung bestätigt, dass diese SEooC-Komponenten in produktionstaugliche Fahrzeugsysteme integriert werden können, wie in der Sicherheitsanleitung beschrieben. Der ASPICE Level 2 spiegelt Helm.ai’s strukturierte und kontrollierte Softwareentwicklungspraktiken wider. Das System basiert auf Helm.ai’s proprietärer Deep Teaching™ Technologie, die groß angelegtes, unüberwachtes Lernen aus echten Fahrdaten nutzt. Dies reduziert die Abhängigkeit von teuren, manuell beschrifteten Datensätzen. Helm.ai Vision bietet fortgeschrittene Umgebungsperception, die die Herausforderungen des städtischen Verkehrs in verschiedenen internationalen Regionen meistert, darunter dichter Verkehr, vielfältige Straßengeometrien und komplexe Verhaltensweisen von Fußgängern und Fahrzeugen. Es ermöglicht Echtzeit-3D-Objekterkennung, vollständige semantische Segmentation des gesamten Szenarios und die Fusion von mehreren Kameras, wodurch das autonome Fahrzeug seine Umgebung mit hoher Genauigkeit interpretieren kann. Ein wesentlicher Aspekt von Helm.ai Vision ist die Generierung einer Vogelperspektive (BEV) durch die Fusion von mehreren Kamereingaben zu einer einheitlichen räumlichen Karte. Diese BEV-Darstellung ist entscheidend für die Verbesserung der Leistung der Absichtsvorhersage- und Planungsmoduln. Helm.ai Vision ist modular gestaltet und optimiert für die Bereitstellung auf führenden Automotive-Hardware-Plattformen, einschließlich Nvidia, Qualcomm, Texas Instruments und Ambarella. Da Helm.ai Vision bereits für die Massenproduktion validiert wurde und vollständig kompatibel mit dem End-to-End (E2E) Helm.ai Driver-Pfadplanungsstack ist, reduziert es den Validierungsaufwand und erhöht die Interpretabilität, um die Produktionsbereitstellung von Full-Stack-KI-Software zu erleichtern. „Robuste städtische Perception, die in der BEV-Fusionsaufgabe kulminiert, ist der Torwart der fortschrittenen Autonomie“, sagte Vladislav Voroninski, CEO und Gründer von Helm.ai. „Helm.ai Vision deckt das gesamte Spektrum der Perceptionsaufgaben ab, die für hochwertige Level 2+ und Level 3 autonomes Fahren auf produktionstauglichen eingebetteten Systemen erforderlich sind. Es ermöglicht Herstellern, eine visionbasierte Lösung mit hoher Genauigkeit und geringer Latenz zu implementieren. Unser modulares Ansatz zur Autonomie-Stack reduziert den Validierungsaufwand substantially und erhöht die Interpretabilität, was es besonders geeignet für die nahe Zukunft des Massenmarkts und softwaredefinierter Fahrzeuge macht.“ Gegründet 2016 und mit Hauptsitz in Redwood City, Kalifornien, entwickelt Helm.ai nächste-Generation-KI-Software, um skalierbares autonomes Fahren zu realisieren. Das Unternehmen bietet Full-Stack-Real-Time-KI-Lösungen, darunter tiefgreifende neuronale Netze für Autobahn- und städtisches Fahren, End-to-End-Autonomie-Systeme und Entwicklungs- und Validierungswerkzeuge, die auf Deep Teaching™ und generativer KI basieren. Helm.ai arbeitet eng mit globalen Automobilherstellern zusammen, um produktionsgerechte Projekte zu realisieren. Experten im Automobilsektor loben Helm.ai Vision für seine Fähigkeit, die Komplexität des städtischen Verkehrs effektiv zu bewältigen, ohne auf hoch aufgelöste Karten oder Lidar-Sensoren angewiesen zu sein. Diese Technologie könnte einen wichtigen Schritt in Richtung breiterer Akzeptanz und Einführung autonomer Fahrzeuge im Massenmarkt darstellen. Die Zertifizierungen und die modulare Architektur des Systems unterstreichen Helm.ai’s Engagement für die Sicherheit und Effizienz autonomer Fahrzeugtechnologien.