HyperAIHyperAI
vor 8 Tagen

10 Sicherheits- und Datenschutzprobleme bei großen Foundation-Modellen

Jinyuan Jia, Hongbin Liu, Neil Zhenqiang Gong
10 Sicherheits- und Datenschutzprobleme bei großen Foundation-Modellen
Abstract

Grundmodellierungen – wie GPT, CLIP und DINO – haben in den letzten Jahren revolutionäre Fortschritte erzielt und werden allgemein als vielversprechender Ansatz für allgemeine Künstliche Intelligenz (KI) angesehen. Insbesondere wird selbstüberwachtes Lernen eingesetzt, um eine Grundmodellierung mithilfe großer Mengen an unbeschrifteten Daten vorzu trainieren. Eine vortrainierte Grundmodellierung fungiert dabei wie ein „Betriebssystem“ des KI-Ökosystems. Konkret kann eine Grundmodellierung als Merkmalsextraktor für zahlreiche nachgeschaltete Aufgaben genutzt werden, wobei nur wenig oder gar keine beschrifteten Trainingsdaten erforderlich sind. Bisherige Studien zu Grundmodellierungen konzentrierten sich hauptsächlich darauf, eine bessere Grundmodellierung zu trainieren, um deren Leistung in nachgeschalteten Aufgaben unter nicht-feindlichen Bedingungen zu verbessern, während ihre Sicherheit und Privatsphäre unter feindlichen Bedingungen weitgehend unerforscht blieben. Ein Sicherheits- oder Datenschutzproblem einer vortrainierten Grundmodellierung stellt einen einzigen Ausfallpunkt für das gesamte KI-Ökosystem dar. In diesem Buchkapitel diskutieren wir zehn grundlegende Sicherheits- und Datenschutzprobleme für vortrainierte Grundmodellierungen, darunter sechs Vertraulichkeitsprobleme, drei Integritätsprobleme und ein Verfügbarkeitsproblem. Für jedes Problem beleuchten wir potenzielle Chancen und Herausforderungen. Wir hoffen, dass unser Buchkapitel zukünftige Forschungsarbeiten zu Sicherheit und Datenschutz von Grundmodellierungen anregen wird.

10 Sicherheits- und Datenschutzprobleme bei großen Foundation-Modellen | Neueste Forschungsarbeiten | HyperAI