Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Explore definitions and explanations of key AI and ML concepts
Im Bereich des Deep Learning bezeichnet Grokking ein Phänomen im Trainingsprozess neuronaler Netzwerke, nämlich dass auch nach langem Abklingen des Trainingsfehlers noch eine gute Generalisierung erreicht werden kann.
Skalierungsgesetze beim Deep Learning beziehen sich auf die Beziehung zwischen einer funktionalen Eigenschaft von Interesse (normalerweise ein Testverlust oder eine Leistungsmetrik bei einer Feinabstimmungsaufgabe) und Eigenschaften der Architektur oder des Optimierungsverfahrens (wie Modellgröße, Breite oder Trainingsberechnung).
Emergenz bezeichnet im Bereich der künstlichen Intelligenz ein Phänomen, bei dem durch die Interaktion einfacher Individuen oder Regeln komplexe kollektive Verhaltensweisen oder Strukturen entstehen. In der künstlichen Intelligenz kann sich diese Art der Emergenz auf vom Modell erlernte hochrangige Funktionen oder Verhaltensweisen beziehen, die nicht direkt konzipiert sind […]
Erklärbare KI (XAI) ist eine Reihe von Prozessen und Methoden, die es menschlichen Benutzern ermöglichen, die von Algorithmen des maschinellen Lernens erstellten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen.
Bei der bedingten Berechnung handelt es sich um eine Technik zur Reduzierung des Gesamtberechnungsaufwands, indem die Berechnung nur dann durchgeführt wird, wenn sie erforderlich ist.
Die statistische Klassifizierung ist eine überwachte Lernmethode, mit der neue Beobachtungen in eine der bekannten Kategorien eingeteilt werden.
Variational Autoencoder (VAE) ist eine von Diederik P. Kingma und Max Welling vorgeschlagene Struktur eines künstlichen neuronalen Netzwerks, das zum probabilistischen grafischen Modell und zur variationellen Bayes-Methode gehört.
Masked Language Modeling (MLM) ist eine Deep-Learning-Technik, die häufig bei Aufgaben der natürlichen Sprachverarbeitung (NLP) verwendet wird, insbesondere beim Training von Transformer-Modellen wie BERT, GPT-2 und RoBERTa.
Knowledge Engineering ist ein Zweig der künstlichen Intelligenz (KI), der Regeln entwickelt und sie auf Daten anwendet, um die Denkprozesse einer Person mit Fachwissen zu einem bestimmten Thema nachzuahmen.
Der Inception Score (IS) ist eine objektive Leistungskennzahl, die zur Bewertung der Qualität generierter oder synthetischer Bilder verwendet wird, die von einem Generative Adversarial Network (GAN) erstellt werden.
Fuzzy Logic ist eine Methode zur Variablenverarbeitung, die es ermöglicht, mehrere mögliche Wahrheitswerte durch dieselbe Variable zu verarbeiten. Die Fuzzy-Logik versucht, Probleme mithilfe eines offenen, ungenauen Spektrums an Daten und Heuristiken zu lösen, um zu einer Reihe genauer Schlussfolgerungen zu gelangen.
Die Fréchet-Inception-Distanz (FID) ist eine Leistungsmetrik, bei der niedrigere FID-Werte eine höhere Qualität der vom Generator generierten Bilder bedeuten und echten Bildern ähneln. FID basiert auf dem Merkmalsvektor des Bildes.
DALL-E ist ein neues von OpenAI entwickeltes KI-Programm, das Bilder auf der Grundlage von Textbeschreibungsaufforderungen generiert. Es kann Sprache und visuelle Verarbeitung kombinieren und dieser innovative Ansatz eröffnet neue Möglichkeiten im kreativen Bereich, in der Kommunikation, in der Bildung und mehr. DALL-E wurde im Januar 2021 eingeführt und ist […]
LoRA (Low-Level Adaptation) ist eine bahnbrechende, effiziente Feinabstimmungstechnik, die die Leistungsfähigkeit dieser fortschrittlichen Modelle für benutzerdefinierte Aufgaben und Datensätze nutzt, ohne Ressourcen zu belasten oder unerschwinglich hohe Kosten zu verursachen.
CBR funktioniert, indem ähnliche Fälle aus der Vergangenheit abgerufen und an die aktuelle Situation angepasst werden, um eine Entscheidung zu treffen oder ein Problem zu lösen.
Adversarial Machine Learning ist eine Methode des maschinellen Lernens, die darauf abzielt, Modelle des maschinellen Lernens durch die Bereitstellung irreführender Eingaben zu täuschen.
Cognitive Search stellt die nächste Generation der Unternehmenssuche dar und nutzt Techniken der künstlichen Intelligenz (KI), um die Suchanfragen der Benutzer zu verfeinern und relevante Informationen aus mehreren unterschiedlichen Datensätzen zu extrahieren.
Die Codequalität beschreibt die Gesamtbewertung der Effektivität, Zuverlässigkeit und Wartbarkeit eines Softwarecodes. Zu den wichtigsten Merkmalen der Codequalität zählen Lesbarkeit, Klarheit, Zuverlässigkeit, Sicherheit und Modularität. Diese Eigenschaften sorgen dafür, dass der Code leicht zu verstehen, zu ändern, zu bearbeiten und zu debuggen ist.
Cloud-Container sind eine Technologie zum Bereitstellen, Ausführen und Verwalten von Anwendungen in einer Cloud-Umgebung. Sie bieten eine einfache, portable Möglichkeit, eine Anwendung und ihre Abhängigkeiten in einer in sich geschlossenen Laufzeitumgebung zu kapseln.
Durch die Modellquantisierung können der Speicherbedarf und die Rechenleistungsanforderungen tiefer neuronaler Netzwerkmodelle reduziert werden. Bei der Gewichtsquantisierung handelt es sich um eine gängige Quantisierungstechnik, bei der die Gewichte und Aktivierungen eines neuronalen Netzwerks von hochpräzisen Gleitkommazahlen in ein weniger präzises Format wie 16-Bit- oder 8-Bit-Ganzzahlen konvertiert werden.
Triplet-Verlust ist eine Verlustfunktion für Deep Learning, die sich auf die Minimierung der Distanz zwischen dem Ankerpunkt und der positiven Probe mit derselben Identität und die Minimierung der Distanz zwischen dem Ankerpunkt und der negativen Probe mit unterschiedlichen Identitäten bezieht.
Large Language Model Operations (LLMOps) umfasst die Vorgehensweise, Techniken und Tools für die operative Verwaltung großer Sprachmodelle in Produktionsumgebungen. LLMOps ist speziell darauf ausgelegt, mithilfe von Tools und Methoden den Lebenszyklus von LLM zu verwalten und zu automatisieren, von der Feinabstimmung bis zur Wartung.
Datengravitation bezeichnet die Fähigkeit eines Datenkörpers, Anwendungen, Dienste und andere Daten anzuziehen. Die Qualität und Quantität der Daten wird mit der Zeit zunehmen, was dazu führen wird, dass mehr Anwendungen und Dienste auf diese Daten zugreifen.
Bei der Gradientenakkumulation handelt es sich um einen Mechanismus zum Aufteilen einer Gruppe von Proben, die zum Trainieren eines neuronalen Netzwerks verwendet wird, in mehrere kleine Gruppen von Proben, die nacheinander ausgeführt werden.
Im Bereich des Deep Learning bezeichnet Grokking ein Phänomen im Trainingsprozess neuronaler Netzwerke, nämlich dass auch nach langem Abklingen des Trainingsfehlers noch eine gute Generalisierung erreicht werden kann.
Skalierungsgesetze beim Deep Learning beziehen sich auf die Beziehung zwischen einer funktionalen Eigenschaft von Interesse (normalerweise ein Testverlust oder eine Leistungsmetrik bei einer Feinabstimmungsaufgabe) und Eigenschaften der Architektur oder des Optimierungsverfahrens (wie Modellgröße, Breite oder Trainingsberechnung).
Emergenz bezeichnet im Bereich der künstlichen Intelligenz ein Phänomen, bei dem durch die Interaktion einfacher Individuen oder Regeln komplexe kollektive Verhaltensweisen oder Strukturen entstehen. In der künstlichen Intelligenz kann sich diese Art der Emergenz auf vom Modell erlernte hochrangige Funktionen oder Verhaltensweisen beziehen, die nicht direkt konzipiert sind […]
Erklärbare KI (XAI) ist eine Reihe von Prozessen und Methoden, die es menschlichen Benutzern ermöglichen, die von Algorithmen des maschinellen Lernens erstellten Ergebnisse und Ausgaben zu verstehen und ihnen zu vertrauen.
Bei der bedingten Berechnung handelt es sich um eine Technik zur Reduzierung des Gesamtberechnungsaufwands, indem die Berechnung nur dann durchgeführt wird, wenn sie erforderlich ist.
Die statistische Klassifizierung ist eine überwachte Lernmethode, mit der neue Beobachtungen in eine der bekannten Kategorien eingeteilt werden.
Variational Autoencoder (VAE) ist eine von Diederik P. Kingma und Max Welling vorgeschlagene Struktur eines künstlichen neuronalen Netzwerks, das zum probabilistischen grafischen Modell und zur variationellen Bayes-Methode gehört.
Masked Language Modeling (MLM) ist eine Deep-Learning-Technik, die häufig bei Aufgaben der natürlichen Sprachverarbeitung (NLP) verwendet wird, insbesondere beim Training von Transformer-Modellen wie BERT, GPT-2 und RoBERTa.
Knowledge Engineering ist ein Zweig der künstlichen Intelligenz (KI), der Regeln entwickelt und sie auf Daten anwendet, um die Denkprozesse einer Person mit Fachwissen zu einem bestimmten Thema nachzuahmen.
Der Inception Score (IS) ist eine objektive Leistungskennzahl, die zur Bewertung der Qualität generierter oder synthetischer Bilder verwendet wird, die von einem Generative Adversarial Network (GAN) erstellt werden.
Fuzzy Logic ist eine Methode zur Variablenverarbeitung, die es ermöglicht, mehrere mögliche Wahrheitswerte durch dieselbe Variable zu verarbeiten. Die Fuzzy-Logik versucht, Probleme mithilfe eines offenen, ungenauen Spektrums an Daten und Heuristiken zu lösen, um zu einer Reihe genauer Schlussfolgerungen zu gelangen.
Die Fréchet-Inception-Distanz (FID) ist eine Leistungsmetrik, bei der niedrigere FID-Werte eine höhere Qualität der vom Generator generierten Bilder bedeuten und echten Bildern ähneln. FID basiert auf dem Merkmalsvektor des Bildes.
DALL-E ist ein neues von OpenAI entwickeltes KI-Programm, das Bilder auf der Grundlage von Textbeschreibungsaufforderungen generiert. Es kann Sprache und visuelle Verarbeitung kombinieren und dieser innovative Ansatz eröffnet neue Möglichkeiten im kreativen Bereich, in der Kommunikation, in der Bildung und mehr. DALL-E wurde im Januar 2021 eingeführt und ist […]
LoRA (Low-Level Adaptation) ist eine bahnbrechende, effiziente Feinabstimmungstechnik, die die Leistungsfähigkeit dieser fortschrittlichen Modelle für benutzerdefinierte Aufgaben und Datensätze nutzt, ohne Ressourcen zu belasten oder unerschwinglich hohe Kosten zu verursachen.
CBR funktioniert, indem ähnliche Fälle aus der Vergangenheit abgerufen und an die aktuelle Situation angepasst werden, um eine Entscheidung zu treffen oder ein Problem zu lösen.
Adversarial Machine Learning ist eine Methode des maschinellen Lernens, die darauf abzielt, Modelle des maschinellen Lernens durch die Bereitstellung irreführender Eingaben zu täuschen.
Cognitive Search stellt die nächste Generation der Unternehmenssuche dar und nutzt Techniken der künstlichen Intelligenz (KI), um die Suchanfragen der Benutzer zu verfeinern und relevante Informationen aus mehreren unterschiedlichen Datensätzen zu extrahieren.
Die Codequalität beschreibt die Gesamtbewertung der Effektivität, Zuverlässigkeit und Wartbarkeit eines Softwarecodes. Zu den wichtigsten Merkmalen der Codequalität zählen Lesbarkeit, Klarheit, Zuverlässigkeit, Sicherheit und Modularität. Diese Eigenschaften sorgen dafür, dass der Code leicht zu verstehen, zu ändern, zu bearbeiten und zu debuggen ist.
Cloud-Container sind eine Technologie zum Bereitstellen, Ausführen und Verwalten von Anwendungen in einer Cloud-Umgebung. Sie bieten eine einfache, portable Möglichkeit, eine Anwendung und ihre Abhängigkeiten in einer in sich geschlossenen Laufzeitumgebung zu kapseln.
Durch die Modellquantisierung können der Speicherbedarf und die Rechenleistungsanforderungen tiefer neuronaler Netzwerkmodelle reduziert werden. Bei der Gewichtsquantisierung handelt es sich um eine gängige Quantisierungstechnik, bei der die Gewichte und Aktivierungen eines neuronalen Netzwerks von hochpräzisen Gleitkommazahlen in ein weniger präzises Format wie 16-Bit- oder 8-Bit-Ganzzahlen konvertiert werden.
Triplet-Verlust ist eine Verlustfunktion für Deep Learning, die sich auf die Minimierung der Distanz zwischen dem Ankerpunkt und der positiven Probe mit derselben Identität und die Minimierung der Distanz zwischen dem Ankerpunkt und der negativen Probe mit unterschiedlichen Identitäten bezieht.
Large Language Model Operations (LLMOps) umfasst die Vorgehensweise, Techniken und Tools für die operative Verwaltung großer Sprachmodelle in Produktionsumgebungen. LLMOps ist speziell darauf ausgelegt, mithilfe von Tools und Methoden den Lebenszyklus von LLM zu verwalten und zu automatisieren, von der Feinabstimmung bis zur Wartung.
Datengravitation bezeichnet die Fähigkeit eines Datenkörpers, Anwendungen, Dienste und andere Daten anzuziehen. Die Qualität und Quantität der Daten wird mit der Zeit zunehmen, was dazu führen wird, dass mehr Anwendungen und Dienste auf diese Daten zugreifen.
Bei der Gradientenakkumulation handelt es sich um einen Mechanismus zum Aufteilen einer Gruppe von Proben, die zum Trainieren eines neuronalen Netzwerks verwendet wird, in mehrere kleine Gruppen von Proben, die nacheinander ausgeführt werden.