HyperAIHyperAI
Back to Headlines

Open-Source-GenAI-Modelle sicher für Unternehmen dank Schutzsperren

vor 4 Tagen

Eine neue Evaluierung, durchgeführt von LatticeFlow AI in Zusammenarbeit mit SambaNova, liefert erstmals quantitative Beweise dafür, dass offene KI-Modelle für generative KI (GenAI), wenn sie mit gezielten Sicherheitsmaßnahmen ausgestattet sind, die Sicherheitsanforderungen von geschlossenen Modellen nicht nur erreichen, sondern in vielen Fällen sogar übertreffen können. Die Studie zeigt, dass die Sicherheitsbewertung der fünf führenden offenen Modelle von durchschnittlich 1,8 % auf 99,6 % anstieg, nachdem spezifische „Guardrails“ – also Sicherheitsfilter – eingeführt wurden, um schädliche oder manipulative Eingaben zu blockieren. Gleichzeitig blieb die Dienstqualität bei über 98 %, was bedeutet, dass Sicherheit und Benutzererfahrung nicht gegeneinander ausgespielt werden müssen. Die Tests simulierten typische Unternehmensszenarien wie Prompt-Injektion und andere Cyberangriffe, die in regulierten Branchen wie Finanzdienstleistungen besonders kritisch sind. Die Ergebnisse bestätigen, dass offene Modelle mit angemessener technischer Absicherung für den Einsatz in sensiblen Anwendungen geeignet sind. Dies löst ein zentrales Hemmnis der bisherigen Adoption: die mangelnde Transparenz und Quantifizierbarkeit von Risiken bei offenen KI-Modellen. Dr. Petar Tsankov, CEO und Mitbegründer von LatticeFlow AI, betont, dass die Evaluierung tiefgehende technische Kontrollen bietet, die Unternehmen dabei unterstützen, fundierte Entscheidungen über den Einsatz von GenAI zu treffen. Harry Ault, Chief Revenue Officer von SambaNova, ergänzt, dass Kunden wie große Banken und staatliche Institutionen zunehmend offene Modelle und beschleunigte Inferenztechnologien nutzen, um agente-basierte Anwendungen zu entwickeln – und nun durch diese Studie die Gewissheit erhalten, dass dies sicher und regulatorisch konform möglich ist. Die Ergebnisse sind besonders relevant für die Finanzbranche, wo KI-Modelle nicht nur leistungsfähig, sondern auch nachvollziehbar, steuerbar und auditable sein müssen. Die Studie liefert nun objektive Daten, die Risiko- und Compliance-Verantwortliche benötigen, um offene KI-Modelle verantwortungsvoll einzusetzen. LatticeFlow AI positioniert sich als Pionier im Bereich KI-Governance. Mit COMPL-AI, dem weltweit ersten EU-AI-Act-Framework für generative KI, entwickelt in Kooperation mit ETH Zürich und INSAIT, verbindet das Unternehmen Schweizer Präzision mit wissenschaftlicher Exzellenz. Die Plattform ermöglicht es Unternehmen, KI-Entscheidungen auf fundierten, messbaren Daten zu basieren. In der Branche wird die Studie als Meilenstein angesehen: Sie zeigt, dass Offenheit und Sicherheit keine Gegensätze sind, sondern durch die richtigen technischen und organisatorischen Maßnahmen vereinbar sind. Für Unternehmen, die nach Flexibilität, Kostenersparnis und Kontrolle suchen, eröffnet dies neue Möglichkeiten, KI-Transformation sicher voranzutreiben.

Related Links