HyperAIHyperAI

Command Palette

Search for a command to run...

KI-System erkennt Gewalt gegen Frauen an der Stimme

Ein Forschungsteam der Universidad Carlos III de Madrid (UC3M) hat eine KI-basierte Technologie entwickelt, die Anzeichen von geschlechtsspezifischer Gewalt anhand paralinguistischer Merkmale der Stimme erkennt – wie Ton, Rhythmus und Lautstärke. Die Methode nutzt fortgeschrittene maschinelles Lernen und ein adversariales Netzwerk, um biometrische Indikatoren im Stimmspektrum zu analysieren, die mit psychischer Belastung oder Trauma verknüpft sind. Im Gegensatz zu herkömmlichen Verfahren, die Inhalte von Gesprächen auswerten, arbeitet das System ausschließlich mit akustischen Merkmalen und schützt so die Privatsphäre der Sprecher*innen. Dies macht es besonders geeignet für Anwendungen in Telefon-Hotlines, Telemedizin und sozialen Dienstleistungen, wo sensible Daten geschützt bleiben müssen. Die Forschung, veröffentlicht in der Zeitschrift Applied Sciences, basiert auf Experimenten mit Freiwilligen, die in einer virtuellen Realität (VR) Videos mit und ohne gewalttätige Inhalte betrachteten. Dabei wurden ihre Stimmen und Verhaltensreaktionen analysiert. Die Ergebnisse zeigten signifikante Unterschiede in der Stimmlage und -dynamik zwischen Personen mit und ohne Gewalterfahrung – selbst wenn die äußeren Reize identisch waren. „Es war eine glückliche Entdeckung: Während wir nach anderen Signalen suchten, stellten wir fest, dass sich die Stimme allein bereits als Indikator für Gewalterfahrung eignet“, sagt Carmen Peláez Moreno, Professorin am Institut für Signaltheorie und Kommunikation und Forscherin am UC3M4Safety-Zentrum. Die Technologie könnte in der Praxis mehrere wichtige Funktionen erfüllen. In klinischen Umgebungen könnte sie helfen, psychische Belastungen frühzeitig zu erkennen, ohne dass Patientinnen bewusst über ihre Erfahrungen sprechen müssen. In digitalen Plattformen wie Sprachassistenten oder sozialen Netzwerken könnte sie automatisch auf potenzielle Opfer aufmerksam machen und gezielte Unterstützung anbieten. Dadurch könnte die Untererfassung von Gewaltfällen reduziert und die Reaktionszeit verbessert werden – oft noch vor dem Moment, in dem die Betroffener ihre eigene Situation als Gewalt wahrnimmt. Das Projekt ist Teil des umfassenden Bindi-Projekts, das von der UC3M4Safety-Gruppe unter Leitung von Celia López Ongil und Clara Sainz de Baranda Andújar koordiniert wird. Es bringt Expert*innen aus mehr als 15 Disziplinen zusammen – von Ingenieurwissenschaften über Sozialwissenschaften bis hin zu Geisteswissenschaften – und verfolgt das Ziel, Gewaltprävention durch Technologie zu stärken, Beweise zu sammeln und Opfer frühzeitig zu unterstützen. „Wir glauben, dass Technologie ein entscheidender Hebel sein kann, um Gewalt zu bekämpfen und Opfer auf ihrem Weg zur Genesung zu begleiten“, betont López Ongil, Direktorin des Instituts für Geschlechterstudien (IEG) an der UC3M. Experten loben die Innovation als wegweisend für die digitale Prävention von Gewalt. „Die Fähigkeit, psychische Traumata über Stimme zu erkennen, ohne Inhalte zu analysieren, ist ein Meilenstein für Datenschutz und soziale Verantwortung“, sagt ein Fachexperte aus dem Bereich KI-ethik. Die Technologie steht noch am Anfang, doch ihre potenziellen Anwendungen in der Gesundheitsversorgung und sozialen Arbeit könnten die Art und Weise, wie wir mit Gewalt umgehen, nachhaltig verändern.

Verwandte Links

KI-System erkennt Gewalt gegen Frauen an der Stimme | Aktuelle Beiträge | HyperAI