Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Im Gegensatz zu Data Warehouses oder Silos verwenden Data Lakes eine flache Architektur mit Objektspeicher, um Metadaten für Dateien zu verwalten.
Die Datenschutz-Grundverordnung (DSGVO) ist das strengste Datenschutz- und Sicherheitsgesetz der Welt.
Hyper Converged Infrastructure (HCI) kombiniert Server und Speicher in einer verteilten Infrastrukturplattform, erstellt flexible Bausteine durch intelligente Software und ersetzt herkömmliche Infrastrukturen, die aus separaten Servern, Speichernetzwerken und Speicher-Arrays bestehen.
Unter Exascale-Computing versteht man ein Computersystem, das mindestens „10 18 IEEE 754-Operationen (Multiplikationen und/oder Additionen) mit doppelter Genauigkeit (64 Bit) pro Sekunde (Exa-FLOPS)“ ausführen kann, was ein Maß für die Leistung eines Supercomputers ist. Exascale-Computing ist Computing […]
HyperNetworks ist eine neuronale Netzwerkstruktur, die im Vergleich zu herkömmlichen neuronalen Netzwerken einige Unterschiede in der Modellparametrisierung aufweist. In dem 2016 von Google Brain veröffentlichten Papier „HyperNetworks“ heißt es, dass in Hyper […]
Predictive Coding (PC) ist ein theoretischer Rahmen in der Kognitionswissenschaft, der davon ausgeht, dass das menschliche Gehirn Erkenntnisse durch räumlich-zeitliche Vorhersagen der visuellen Welt verarbeitet.
Das Diffusionswahrscheinlichkeitsmodell demonstriert die Verbindung zwischen dem Diffusionswahrscheinlichkeitsmodell und der PC-Theorie.
Das DQ-LoRe-Framework verwendet Dual Query (DQ) und Low-Rank Approximate Reranking (LoRe), um automatisch kontextbezogene Lernbeispiele auszuwählen.
Kontrastives Lernen ist eine Technik, die die Leistung bei Sehaufgaben verbessert, indem sie das Prinzip der Gegenüberstellung von Stichproben nutzt, um Eigenschaften zu erlernen, die Datenklassen gemeinsam haben und Eigenschaften, die eine Datenklasse von einer anderen unterscheiden.
Durch die Behebung der Einschränkungen herkömmlicher LSTM und die Einbeziehung neuartiger Komponenten wie Exponential-Gating, Matrixspeicher und parallelisierbarer Architektur eröffnet xLSTM neue Möglichkeiten für LLM.
Eine Punktwolke ist ein Datensatz aus Punkten im Raum, der eine 3D-Form oder ein 3D-Objekt darstellen kann und normalerweise von einem 3D-Scanner erfasst wird.
Ziel der Referring Image Segmentation (RIS) ist die Segmentierung der Zielobjekte, auf die durch natürliche Sprachausdrücke verwiesen wird. Bisherige Methoden basieren jedoch auf der starken Annahme, dass ein Satz ein Objekt in einem Bild beschreiben muss […]
Das Multiple-Drafts-Modell ist eine physikalistische Theorie des Bewusstseins, die auf dem Kognitivismus basiert und von Daniel Dennett vorgeschlagen wurde. Diese Theorie betrachtet den Geist aus der Perspektive der Informationsverarbeitung. Dennett veröffentlichte „Consciousness Explained“ im Jahr 1991.
KAN: Kolmogorov-Arnold-Netzwerke. Das Papier schlägt eine vielversprechende Alternative zum Multilayer Perceptron (MLP) vor, die sogenannten Kolmogorov-Arnold-Netzwerke (KAN). Der Ursprung des Namens KAN liegt […]
Der Kolmogorov-Arnold-Darstellungssatz erleichtert die Analyse komplexer dynamischer Systeme
Das Lernen von Aktionsmodellen umfasst einen komplexen Prozess im Bereich der künstlichen Intelligenz, bei dem Modelle entwickelt werden, um im Wesentlichen die Auswirkungen der Aktionen eines Agenten in einer Umgebung vorherzusagen.
Die True Positive Rate (TPR) ist eine Metrik, die in der Statistik, im maschinellen Lernen und in der medizinischen Diagnose verwendet wird, um die Leistung binärer Klassifizierungsmodelle zu bewerten. Es stellt den Anteil der tatsächlichen positiven Fälle dar, die vom Modell korrekt identifiziert oder als positiv klassifiziert wurden. TPR wird auch Sensibilität, Erinnerung oder […] genannt.
Glitch-Token sind Wörter, die in großen Sprachmodellen für einen reibungslosen Ablauf des Modells sorgen sollen, aber zu abnormalen Ergebnissen führen. Ein Forschungsteam der Huazhong University of Science and Technology, der Nanyang Technological University und anderer Universitäten veröffentlichte 2024 eine Studie mit dem Titel „Glitch-Token in […]
Multimodale große Sprachmodelle kombinieren die Leistungsfähigkeit der natürlichen Sprachverarbeitung (NLP) mit anderen Modalitäten wie Bildern, Audio oder Video.
Im Vergleich zu anderen LLM-Upgrademethoden, bei denen verschiedene Experten zum Einsatz kommen, erfordert DUS keine komplexen Änderungen für effizientes Training und effiziente Inferenz.
Im Bereich des Deep Learning bezeichnet Grokking ein Phänomen im Trainingsprozess neuronaler Netzwerke, nämlich dass auch nach langem Abklingen des Trainingsfehlers noch eine gute Generalisierung erreicht werden kann.
Skalierungsgesetze beim Deep Learning beziehen sich auf die Beziehung zwischen einer funktionalen Eigenschaft von Interesse (normalerweise ein Testverlust oder eine Leistungsmetrik bei einer Feinabstimmungsaufgabe) und Eigenschaften der Architektur oder des Optimierungsverfahrens (wie Modellgröße, Breite oder Trainingsberechnung).
Emergenz bezeichnet im Bereich der künstlichen Intelligenz ein Phänomen, bei dem durch die Interaktion einfacher Individuen oder Regeln komplexe kollektive Verhaltensweisen oder Strukturen entstehen. In der künstlichen Intelligenz kann sich diese Art der Emergenz auf vom Modell erlernte hochrangige Funktionen oder Verhaltensweisen beziehen, die nicht direkt konzipiert sind […]
Erklärbare KI (XAI) ist eine Reihe von Prozessen und Methoden, die es menschlichen Benutzern ermöglichen, die von Algorithmen des maschinellen Lernens erstellten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen.