HyperAIHyperAI

Command Palette

Search for a command to run...

CERN nutzt mini-AI-Modelle für Echtzeit-Datenfilterung

Das CERN in Genf setzt seit März 2026 extrem kleine, künstliche Intelligenzmodelle ein, die direkt in Siliziumchips eingebrannt sind, um die massiven Datenmengen des Large Hadron Collider (LHC) in Echtzeit zu filtern. Der LHC erzeugt jährlich rund 40.000 Exabyte Rohdaten, einem Volumen, das einem Viertel des gesamten aktuellen Internets entspricht. In Spitzenzeiten fließen Hunderte von Terabyte Daten pro Sekunde, was die Speicherkapazitäten konventioneller Systeme bei Weitem übersteigt. Da eine vollständige Speicherung oder Verarbeitung unmöglich ist, muss das CERN in Millisekunden oder sogar Nanosekunden entscheiden, welche Kollisionsereignisse wissenschaftliches Potenzial besitzen und welche verworfen werden. Dafür verzichtet das Labor auf herkömmliche Architekturen mit GPUs oder TPUs. Stattdessen werden hochoptimierte, ultra-kompakte KI-Modelle entwickelt und physisch in benutzerdefinierte Hardware wie Field-Programmable Gate Arrays (FPGAs) oder Application-Specific Integrated Circuits (ASICs) implementiert. Diese hardwareintegrierten Modelle ermöglichen eine Inferenz mit extrem geringer Latenz direkt am Rand des Detektorsystems. Im 27 Kilometer langen Ring des LHC kreuzen sich Protonenstrahlen alle 25 Nanosekunden. Bei diesen Kollisionen entstehen oft Datenströme von Megabytes, die sofort verarbeitet werden müssen. Der kritische erste Filter, der sogenannte Level-1-Trigger, besteht aus etwa 1.000 FPGAs, die innerhalb von weniger als 50 Nanosekunden analysieren, welche Ereignisse interessant sind. Dafür läuft ein spezialisierter Algorithmus namens AXOL1TL direkt auf diesen Chips. Das Ergebnis ist eine drastische Reduktion: Nur etwa 0,02 Prozent aller Kollisionen werden für die weitere Analyse behalten; der Rest wird unwiderruflich gelöscht. Ein wesentlicher Bestandteil dieser Technologie ist das Open-Source-Tool HLS4ML, mit dem KI-Modelle aus gängigen Frameworks wie PyTorch oder TensorFlow in synthetisierbaren C++-Code übersetzt werden. Dieser Code wird dann auf die Hardware aufgebracht. Eine Besonderheit der CERN-Lösung ist der gezielte Einsatz von vorberechneten Lookup-Tabellen statt voller Gleitkommaberechnungen. Diese Tabellen speichern Ergebnisse für häufige Eingabemuster, wodurch das System für den Großteil der Signale fast sofort antworten kann, ohne rechenintensive Prozesse durchführen zu müssen. Nach der Vorfilterung durch den Level-1-Trigger folgt im Hochleistungs-Trigger auf der Oberfläche ein Farm-System mit 25.600 CPUs und 400 GPUs, das weitere Terabyte pro Sekunde verarbeitet und das Datenvolumen schließlich auf etwa eine Petabyte pro Tag reduziert. Mit dem geplanten Upgrade auf den High-Luminosity LHC (HL-LHC) ab 2031 soll die Kollisionsrate um das Zehnfache steigen. Das CERN bereitet sich bereits auf diesen Anstieg vor, indem es die KI-Modelle weiter optimiert und die Hardware-Implementierung für noch höhere Datenraten anpasst. Dies stellt einen bemerkenswerten Gegenentwurf zum aktuellen Trend in der KI-Industrie dar, der auf immer größere Sprachmodelle setzt. Das CERN demonstriert erfolgreich, wie spezialisierte, ressourceneffiziente „Tiny AI"-Modelle in extremen Umgebungen operieren, wo es auf Geschwindigkeit und Effizienz ankommt. Dieser Ansatz könnte zukünftig auch andere Bereiche wie autonomes Fahren, Hochfrequenzhandel oder medizinische Bildgebung beeinflussen, in denen Echtzeitentscheidungen unter extremen Datenbedingungen erforderlich sind. Die Arbeit des CERN zeigt, dass extreme Spezialisierung und Hardware-Optimierung eine praktikable Alternative zum reinen Skalieren von Modellgrößen bieten.

Verwandte Links