Teen wird von Polizisten umstellt, weil KI ein Doritos-Beutelchen als Waffe erkannte
Ein Teenager aus Baltimore geriet in eine unerwartete und beunruhigende Situation, als eine künstlich intelligente Sicherheitssystem die Verpackung einer Doritos-Tüte als Waffe identifizierte. Taki Allen, ein Schüler der Kenwood High School, war nach einem Footballtraining mit Freunden vor dem Schulgebäude sitzen geblieben, als plötzlich acht Polizeiwagen vorfuhren. Die Beamten rückten mit gezogenen Waffen an, forderten Allen auf, sich zu Boden zu werfen, legten ihm Handschellen an und durchsuchten ihn. Erst nach der Suche wurde klar, dass er keine Waffe bei sich trug. Die Ursache für die Panik: eine crumpled Doritos-Verpackung, die von einem AI-gesteuerten Metalldetektor als potenzielle Waffe klassifiziert wurde. Allen berichtete, er habe gedacht, er könnte getötet werden, und sei schockiert gewesen, als ihm die Polizei ein Bild zeigte, das der Tüte ähneln sollte. Die Schule bestätigte, dass ein Alarm ausgelöst wurde, der aber schnell wieder aufgehoben wurde, nachdem die Polizei die Situation vor Ort überprüft hatte. Obwohl weder die Schule noch die Polizei offiziell bestätigt haben, dass die Doritos-Tüte die Ursache war, bleibt der Verdacht, dass die AI-Software des Unternehmens Omnilert, das sogenannte „Pionier in künstlicher Intelligenz für die Prävention von Schießereien“ ist, an dem Vorfall beteiligt war, stark. Die Software wurde vor einem Jahr in Baltimore County Public Schools eingeführt, um potenzielle Bedrohungen frühzeitig zu erkennen. Obwohl Omnilert die Technologie als präzise und lebensrettend bewirbt, offenbart der Vorfall erneut die Grenzen und Risiken von KI-Systemen in der öffentlichen Sicherheit – insbesondere, wenn sie in lebensbedrohlichen Situationen falsch reagieren. Die Aktion löste heftige Kritik aus, da der Junge, der lediglich eine Tüte Chips bei sich trug, in einer Weise behandelt wurde, die an Racial Profiling und Überreaktion erinnert. Experten warnen, dass solche Systeme, die auf Bilderkennung basieren, oft ungenau sind, besonders bei unklaren oder unvollständigen Szenarien. Die Fähigkeit, eine verknüllte Chipstüte als Waffe zu erkennen, unterstreicht, wie weit künstliche Intelligenz von menschlichem Verständnis entfernt sein kann. In der technologischen Branche wird der Fall als Warnung gesehen: KI-Systeme, die in kritischen Bereichen wie Schulsicherheit eingesetzt werden, müssen sorgfältig getestet, transparent und mit menschlicher Kontrolle versehen sein. Omnilert, das seine Lösung als „eine neue Ära der Schulsicherheit“ präsentiert, steht nun unter Druck, die Genauigkeit und die Ethik seiner Algorithmen zu rechtfertigen. Die Aktion unterstreicht, dass automatisierte Sicherheitssysteme, ohne menschliche Einschätzung, zu schwerwiegenden Fehlentscheidungen führen können – besonders in sensiblen Umgebungen wie Schulen. Die Reaktion der Schule, die den Alarm schnell zurücknahm, zeigt, dass die menschliche Intervention entscheidend ist, um solche Missverständnisse zu verhindern. Der Fall von Taki Allen ist ein eindringliches Beispiel dafür, dass technologische Fortschritte nicht automatisch Sicherheit bedeuten – und dass die Grenze zwischen Prävention und Überwachung fließend ist.