DOTs AI-Verwendung für Sicherheitsvorschriften stirbt in Kritik
Die US-Verkehrsbehörde DOT hat mit der Nutzung des KI-Tools Gemini von Google zur Erstellung von Sicherheitsvorschriften für den Straßenverkehr eine kontroverse Praxis eingeführt, die bei Mitarbeitern innerhalb der Behörde erhebliche Bedenken ausgelöst hat. Laut mehreren internen Berichten und Gesprächen mit Beamten, die anonym bleiben wollten, hat die DOT in mehreren Fällen KI-generierte Texte als Grundlage für formelle Regelentwürfe verwendet, darunter Vorschriften zur Sicherheit von Fahrzeugen, Verkehrszeichen und Infrastrukturstandards. Diese Praxis wurde als „wahnsinnig verantwortungslos“ kritisiert, da die verwendeten KI-Modelle nicht ausreichend auf Verkehrsregulierungen spezialisiert sind und potenziell fehlerhafte, ungenaue oder sogar gefährliche Empfehlungen liefern könnten. Die Befürchtungen reichen weit über rein technische Mängel hinaus. Mitarbeiter warnen, dass falsche oder unklare Formulierungen in Gesetzesentwürfen zu Missverständnissen bei Herstellern, Behörden und Fahrern führen könnten – mit potenziellen Folgen wie erhöhten Unfallraten, verzögerten Sicherheitsmaßnahmen oder sogar tödlichen Unfällen. Ein hochrangiger Verkehrstechniker betonte: „Wenn eine Regel, die auf KI generiert wurde, die Sicherheit von Kindern in Schulbussen beeinträchtigt, weil sie eine falsche Anforderung an Bremsysteme enthält, ist das nicht nur ein Fehler – das ist eine Verletzung der öffentlichen Verantwortung.“ Die DOT hat bislang keine offizielle Stellungnahme abgegeben, obwohl das Verfahren bereits in mehreren Projekten angewandt wurde. Interne Dokumente zeigen, dass einige KI-Generierte Entwürfe ohne ausreichende menschliche Überprüfung direkt an externe Stakeholder weitergeleitet wurden. Kritiker werfen der Behörde vor, die Grenzen zwischen automatisierter Unterstützung und eigenständiger Entscheidungsfindung zu verwischen. Die Nutzung von KI in regulatorischen Prozessen ist in der öffentlichen Verwaltung nicht neu, doch die Verwendung von kommerziellen KI-Modellen wie Gemini – die auf allgemeinem Wissen basieren und nicht auf spezifischen Verkehrsdaten oder rechtlichen Rahmenbedingungen trainiert wurden – stellt eine neue und riskante Entwicklung dar. Experten aus der KI- und Verkehrsregulierungsbranche warnen vor einer „Kontrolllücke“ in der Verwendung von KI für öffentliche Sicherheitsregeln. „KI kann bei der Datenanalyse und Textzusammenfassung nützlich sein, aber sie kann keine juristische, technische oder ethische Verantwortung übernehmen“, sagt Dr. Lena Müller, Forscherin am MIT für digitale Governance. „Die Entscheidung, eine Regel zu schreiben, ist nicht nur eine sprachliche, sondern eine moralische und technische Verpflichtung – und die darf nicht an ein Modell delegiert werden, das keine Ahnung von Folgen hat.“ Die DOT ist eine der wichtigsten Behörden im US-Verkehrssystem, mit Zuständigkeit für Straßensicherheit, Fahrzeugstandards und Infrastrukturinvestitionen. Ihre Entscheidungen beeinflussen Millionen von Menschen täglich. Die aktuelle Praxis, KI zur Erstellung von Sicherheitsvorschriften zu nutzen, hat bereits zu einer internen Debatte über ethische Standards und technische Grenzen geführt. Sollte die Behörde ihre Vorgehensweise nicht überarbeiten, droht nicht nur ein Vertrauensverlust in die Regulierungsarbeit, sondern auch ein erhöhtes Risiko für öffentliche Sicherheit. In der Branche wird zunehmend gefordert, klare Richtlinien für die KI-Nutzung in der öffentlichen Verwaltung zu schaffen – mit menschlicher Verantwortung, Transparenz und unabhängiger Überprüfung. Die aktuelle Situation bei der DOT wird als Warnsignal für die gesamte Regierungslandschaft gesehen: Technologie darf nicht zur Abkürzung von Verantwortung werden.
