Shell-Theorie: Ein statistisches Modell der Realität
{Yasuyuki Matsushita Hongdong Li Ngai-Man Cheung Changhao Ren Siying Liu Wen-Yan Lin}

Abstract
Die grundlegende Annahme des maschinellen Lernens ist, dass die betrachteten Daten in Klassen separierbar sind; obwohl dies intuitiv plausibel erscheint, haben Separierbarkeitsbedingungen sich als bemerkenswert schwer mathematisch zu formulieren erwiesen. Wir vermuten, dass dieses Problem auf einer Diskrepanz zwischen bestehenden statistischen Techniken und den in der Praxis häufig auftretenden Daten beruht: Objektrepräsentationen sind typischerweise hochdimensional, während statistische Methoden hohe Dimensionen tendenziell als degenerierten Spezialfall behandeln. Um dieses Problem anzugehen, entwickeln wir einen spezifisch für den maschinellen Lernen in hohen Dimensionen geeigneten statistischen Rahmen. Dieser Rahmen basiert auf der Beobachtung, dass Objektbeziehungen eine natürliche Hierarchie bilden; daraus leiten wir ab, Objekte als Instanzen eines hochdimensionalen, hierarchischen generativen Prozesses zu modellieren. Unter Verwendung einer in dieser Arbeit ebenfalls entwickelten, auf Distanzen basierenden statistischen Technik zeigen wir, dass in solchen generativen Prozessen die Instanzen jedes Prozesses innerhalb der Hierarchie fast immer durch eine charakteristische Hülle umschlossen sind, die fast alle anderen Instanzen ausschließt. Das Ergebnis ist die Hülle-Theorie (shell theory), ein statistischer Rahmen für maschinelles Lernen, in dem Separierbarkeitsbedingungen (charakteristische Hüllen) formal aus dem angenommenen generativen Prozess abgeleitet werden können.
Benchmarks
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.