Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Adversarial Machine Learning ist eine Methode des maschinellen Lernens, die darauf abzielt, Modelle des maschinellen Lernens durch die Bereitstellung irreführender Eingaben zu täuschen.
Cognitive Search stellt die nächste Generation der Unternehmenssuche dar und nutzt Techniken der künstlichen Intelligenz (KI), um die Suchanfragen der Benutzer zu verfeinern und relevante Informationen aus mehreren unterschiedlichen Datensätzen zu extrahieren.
Die Codequalität beschreibt die Gesamtbewertung der Effektivität, Zuverlässigkeit und Wartbarkeit eines Softwarecodes. Zu den wichtigsten Merkmalen der Codequalität zählen Lesbarkeit, Klarheit, Zuverlässigkeit, Sicherheit und Modularität. Diese Eigenschaften sorgen dafür, dass der Code leicht zu verstehen, zu ändern, zu bearbeiten und zu debuggen ist.
Cloud-Container sind eine Technologie zum Bereitstellen, Ausführen und Verwalten von Anwendungen in einer Cloud-Umgebung. Sie bieten eine einfache, portable Möglichkeit, eine Anwendung und ihre Abhängigkeiten in einer in sich geschlossenen Laufzeitumgebung zu kapseln.
Durch die Modellquantisierung können der Speicherbedarf und die Rechenleistungsanforderungen tiefer neuronaler Netzwerkmodelle reduziert werden. Bei der Gewichtsquantisierung handelt es sich um eine gängige Quantisierungstechnik, bei der die Gewichte und Aktivierungen eines neuronalen Netzwerks von hochpräzisen Gleitkommazahlen in ein weniger präzises Format wie 16-Bit- oder 8-Bit-Ganzzahlen konvertiert werden.
Triplet-Verlust ist eine Verlustfunktion für Deep Learning, die sich auf die Minimierung der Distanz zwischen dem Ankerpunkt und der positiven Probe mit derselben Identität und die Minimierung der Distanz zwischen dem Ankerpunkt und der negativen Probe mit unterschiedlichen Identitäten bezieht.
Large Language Model Operations (LLMOps) umfasst die Vorgehensweise, Techniken und Tools für die operative Verwaltung großer Sprachmodelle in Produktionsumgebungen. LLMOps ist speziell darauf ausgelegt, mithilfe von Tools und Methoden den Lebenszyklus von LLM zu verwalten und zu automatisieren, von der Feinabstimmung bis zur Wartung.
Datengravitation bezeichnet die Fähigkeit eines Datenkörpers, Anwendungen, Dienste und andere Daten anzuziehen. Die Qualität und Quantität der Daten wird mit der Zeit zunehmen, was dazu führen wird, dass mehr Anwendungen und Dienste auf diese Daten zugreifen.
Bei der Gradientenakkumulation handelt es sich um einen Mechanismus zum Aufteilen einer Gruppe von Proben, die zum Trainieren eines neuronalen Netzwerks verwendet wird, in mehrere kleine Gruppen von Proben, die nacheinander ausgeführt werden.
Bei der Modellvalidierung handelt es sich um den Prozess der Leistungsbewertung eines Machine-Learning-Modells (ML) anhand eines Datensatzes, der vom Trainingsdatensatz getrennt ist. Dies ist ein wichtiger Schritt im ML-Modellentwicklungsprozess, da er dazu beiträgt, sicherzustellen, dass das Modell auf neue, unbekannte Daten verallgemeinert werden kann und nicht zu stark an die Trainingsdaten angepasst wird.
Pooling-basiertes Sampling ist eine beliebte aktive Lernmethode, bei der aussagekräftige Beispiele für die Beschriftung ausgewählt werden. Es wird ein Pool unbeschrifteter Daten erstellt und das Modell wählt die aussagekräftigsten Beispiele für die menschliche Annotation aus. Diese beschrifteten Beispiele werden verwendet, um das Modell neu zu trainieren, und der Vorgang wird wiederholt.
Bot Frame wird verwendet, um Roboter zu erstellen und ihr Verhalten zu definieren.
Modellparameter sind Variablen, die das Verhalten eines Machine-Learning-Modells (ML) steuern. Sie werden häufig anhand von Daten geschult und treffen Vorhersagen oder Entscheidungen auf der Grundlage neuer, unvorhergesehener Fakten. Modellparameter sind ein wichtiger Bestandteil eines maschinellen Lernmodells, da sie einen erheblichen Einfluss auf die Genauigkeit und Leistung des Modells haben.
Der Begriff „Rauschen“ wird zur Beschreibung unerwünschter oder irrelevanter Informationen in einem Bild oder Video verwendet. Die Ursachen können vielfältig sein, unter anderem Sensorrauschen, Kompressionsartefakte und Umgebungsfaktoren wie Lichtverhältnisse und Reflexionen. Rauschen kann die Qualität und Klarheit eines Bildes oder Videos erheblich beeinträchtigen und die genaue Analyse oder Interpretation des Bildinhalts erschweren.
Panoptische Segmentierung ist eine Computervisionsaufgabe, bei der ein Bild oder Video in verschiedene Objekte und ihre jeweiligen Teile segmentiert und jedes Pixel mit der entsprechenden Klasse gekennzeichnet wird.
Beim maschinellen Lernen treten Fehler 2. Typs (auch als falsch-negative Ergebnisse bezeichnet) auf, wenn ein Modell fälschlicherweise vorhersagt, dass eine bestimmte Bedingung oder ein bestimmtes Attribut nicht vorhanden ist, obwohl dies tatsächlich der Fall ist.
Beim maschinellen Lernen treten Fehler 1. Typs, auch als falsch positive Ergebnisse (FP) bezeichnet, auf, wenn ein Modell das Vorhandensein einer Bedingung oder eines Attributs fälschlicherweise vorhersagt, obwohl dies tatsächlich nicht der Fall ist.
Ein vortrainiertes Modell ist ein maschinelles Lernmodell (ML), das anhand eines großen Datensatzes trainiert wurde und für eine bestimmte Aufgabe optimiert werden kann. Vortrainierte Modelle werden häufig als Ausgangspunkt für die Entwicklung von ML-Modellen verwendet. Sie bieten einen ersten Satz an Gewichtungen und Verzerrungen, der für eine bestimmte Aufgabe feinabgestimmt werden kann.
Die Modellpräzision, auch Modellgenauigkeit genannt, ist ein Maß für die Fähigkeit eines Machine-Learning-Modells (ML), auf der Grundlage von Daten Vorhersagen oder Entscheidungen zu treffen. Es handelt sich um eine gängige Metrik zur Bewertung der Leistung von ML-Modellen und kann verwendet werden, um die Leistung verschiedener Modelle zu vergleichen oder die Wirksamkeit eines bestimmten Modells für eine bestimmte Aufgabe zu beurteilen.
Im Zweig der Mathematik, der als numerische Analyse bekannt ist, ist die Polynominterpolation der Prozess der Interpolation eines gegebenen Datensatzes mithilfe eines Polynoms. Mit anderen Worten: Das Ziel besteht darin, für einen gegebenen Datensatz (z. B. Daten aus einer Stichprobe) ein Polynom zu finden, das durch diese Datenpunkte verläuft.
Im Bereich des maschinellen Lernens (ML) ist Interpolation der Prozess der Schätzung des Werts einer Funktion oder eines Datensatzes an Punkten zwischen bekannten Datenpunkten. Interpolation wird häufig verwendet, um fehlende Werte in einem Datensatz zu ergänzen oder Rauschen oder Unregelmäßigkeiten in den Daten zu entfernen.
Beim maschinellen Lernen (ML) ist die Lernrate ein Hyperparameter, der die Schrittweite für die Aktualisierung der Modellparameter während des Trainings bestimmt.
Keypoint ist ein sehr verbreitetes Konzept im Bereich der Computer Vision. Schlüsselpunkte sind eindeutige oder hervorstechende Punkte in einem Bild oder Video, die zum Identifizieren, Beschreiben oder Zuordnen von Objekten oder Merkmalen in einer Szene verwendet werden können.
Die mittlere durchschnittliche Präzision (mAP) ist eine weit verbreitete Leistungsmetrik bei Objekterkennungsaufgaben im maschinellen Lernen.
Adversarial Machine Learning ist eine Methode des maschinellen Lernens, die darauf abzielt, Modelle des maschinellen Lernens durch die Bereitstellung irreführender Eingaben zu täuschen.
Cognitive Search stellt die nächste Generation der Unternehmenssuche dar und nutzt Techniken der künstlichen Intelligenz (KI), um die Suchanfragen der Benutzer zu verfeinern und relevante Informationen aus mehreren unterschiedlichen Datensätzen zu extrahieren.
Die Codequalität beschreibt die Gesamtbewertung der Effektivität, Zuverlässigkeit und Wartbarkeit eines Softwarecodes. Zu den wichtigsten Merkmalen der Codequalität zählen Lesbarkeit, Klarheit, Zuverlässigkeit, Sicherheit und Modularität. Diese Eigenschaften sorgen dafür, dass der Code leicht zu verstehen, zu ändern, zu bearbeiten und zu debuggen ist.
Cloud-Container sind eine Technologie zum Bereitstellen, Ausführen und Verwalten von Anwendungen in einer Cloud-Umgebung. Sie bieten eine einfache, portable Möglichkeit, eine Anwendung und ihre Abhängigkeiten in einer in sich geschlossenen Laufzeitumgebung zu kapseln.
Durch die Modellquantisierung können der Speicherbedarf und die Rechenleistungsanforderungen tiefer neuronaler Netzwerkmodelle reduziert werden. Bei der Gewichtsquantisierung handelt es sich um eine gängige Quantisierungstechnik, bei der die Gewichte und Aktivierungen eines neuronalen Netzwerks von hochpräzisen Gleitkommazahlen in ein weniger präzises Format wie 16-Bit- oder 8-Bit-Ganzzahlen konvertiert werden.
Triplet-Verlust ist eine Verlustfunktion für Deep Learning, die sich auf die Minimierung der Distanz zwischen dem Ankerpunkt und der positiven Probe mit derselben Identität und die Minimierung der Distanz zwischen dem Ankerpunkt und der negativen Probe mit unterschiedlichen Identitäten bezieht.
Large Language Model Operations (LLMOps) umfasst die Vorgehensweise, Techniken und Tools für die operative Verwaltung großer Sprachmodelle in Produktionsumgebungen. LLMOps ist speziell darauf ausgelegt, mithilfe von Tools und Methoden den Lebenszyklus von LLM zu verwalten und zu automatisieren, von der Feinabstimmung bis zur Wartung.
Datengravitation bezeichnet die Fähigkeit eines Datenkörpers, Anwendungen, Dienste und andere Daten anzuziehen. Die Qualität und Quantität der Daten wird mit der Zeit zunehmen, was dazu führen wird, dass mehr Anwendungen und Dienste auf diese Daten zugreifen.
Bei der Gradientenakkumulation handelt es sich um einen Mechanismus zum Aufteilen einer Gruppe von Proben, die zum Trainieren eines neuronalen Netzwerks verwendet wird, in mehrere kleine Gruppen von Proben, die nacheinander ausgeführt werden.
Bei der Modellvalidierung handelt es sich um den Prozess der Leistungsbewertung eines Machine-Learning-Modells (ML) anhand eines Datensatzes, der vom Trainingsdatensatz getrennt ist. Dies ist ein wichtiger Schritt im ML-Modellentwicklungsprozess, da er dazu beiträgt, sicherzustellen, dass das Modell auf neue, unbekannte Daten verallgemeinert werden kann und nicht zu stark an die Trainingsdaten angepasst wird.
Pooling-basiertes Sampling ist eine beliebte aktive Lernmethode, bei der aussagekräftige Beispiele für die Beschriftung ausgewählt werden. Es wird ein Pool unbeschrifteter Daten erstellt und das Modell wählt die aussagekräftigsten Beispiele für die menschliche Annotation aus. Diese beschrifteten Beispiele werden verwendet, um das Modell neu zu trainieren, und der Vorgang wird wiederholt.
Bot Frame wird verwendet, um Roboter zu erstellen und ihr Verhalten zu definieren.
Modellparameter sind Variablen, die das Verhalten eines Machine-Learning-Modells (ML) steuern. Sie werden häufig anhand von Daten geschult und treffen Vorhersagen oder Entscheidungen auf der Grundlage neuer, unvorhergesehener Fakten. Modellparameter sind ein wichtiger Bestandteil eines maschinellen Lernmodells, da sie einen erheblichen Einfluss auf die Genauigkeit und Leistung des Modells haben.
Der Begriff „Rauschen“ wird zur Beschreibung unerwünschter oder irrelevanter Informationen in einem Bild oder Video verwendet. Die Ursachen können vielfältig sein, unter anderem Sensorrauschen, Kompressionsartefakte und Umgebungsfaktoren wie Lichtverhältnisse und Reflexionen. Rauschen kann die Qualität und Klarheit eines Bildes oder Videos erheblich beeinträchtigen und die genaue Analyse oder Interpretation des Bildinhalts erschweren.
Panoptische Segmentierung ist eine Computervisionsaufgabe, bei der ein Bild oder Video in verschiedene Objekte und ihre jeweiligen Teile segmentiert und jedes Pixel mit der entsprechenden Klasse gekennzeichnet wird.
Beim maschinellen Lernen treten Fehler 2. Typs (auch als falsch-negative Ergebnisse bezeichnet) auf, wenn ein Modell fälschlicherweise vorhersagt, dass eine bestimmte Bedingung oder ein bestimmtes Attribut nicht vorhanden ist, obwohl dies tatsächlich der Fall ist.
Beim maschinellen Lernen treten Fehler 1. Typs, auch als falsch positive Ergebnisse (FP) bezeichnet, auf, wenn ein Modell das Vorhandensein einer Bedingung oder eines Attributs fälschlicherweise vorhersagt, obwohl dies tatsächlich nicht der Fall ist.
Ein vortrainiertes Modell ist ein maschinelles Lernmodell (ML), das anhand eines großen Datensatzes trainiert wurde und für eine bestimmte Aufgabe optimiert werden kann. Vortrainierte Modelle werden häufig als Ausgangspunkt für die Entwicklung von ML-Modellen verwendet. Sie bieten einen ersten Satz an Gewichtungen und Verzerrungen, der für eine bestimmte Aufgabe feinabgestimmt werden kann.
Die Modellpräzision, auch Modellgenauigkeit genannt, ist ein Maß für die Fähigkeit eines Machine-Learning-Modells (ML), auf der Grundlage von Daten Vorhersagen oder Entscheidungen zu treffen. Es handelt sich um eine gängige Metrik zur Bewertung der Leistung von ML-Modellen und kann verwendet werden, um die Leistung verschiedener Modelle zu vergleichen oder die Wirksamkeit eines bestimmten Modells für eine bestimmte Aufgabe zu beurteilen.
Im Zweig der Mathematik, der als numerische Analyse bekannt ist, ist die Polynominterpolation der Prozess der Interpolation eines gegebenen Datensatzes mithilfe eines Polynoms. Mit anderen Worten: Das Ziel besteht darin, für einen gegebenen Datensatz (z. B. Daten aus einer Stichprobe) ein Polynom zu finden, das durch diese Datenpunkte verläuft.
Im Bereich des maschinellen Lernens (ML) ist Interpolation der Prozess der Schätzung des Werts einer Funktion oder eines Datensatzes an Punkten zwischen bekannten Datenpunkten. Interpolation wird häufig verwendet, um fehlende Werte in einem Datensatz zu ergänzen oder Rauschen oder Unregelmäßigkeiten in den Daten zu entfernen.
Beim maschinellen Lernen (ML) ist die Lernrate ein Hyperparameter, der die Schrittweite für die Aktualisierung der Modellparameter während des Trainings bestimmt.
Keypoint ist ein sehr verbreitetes Konzept im Bereich der Computer Vision. Schlüsselpunkte sind eindeutige oder hervorstechende Punkte in einem Bild oder Video, die zum Identifizieren, Beschreiben oder Zuordnen von Objekten oder Merkmalen in einer Szene verwendet werden können.
Die mittlere durchschnittliche Präzision (mAP) ist eine weit verbreitete Leistungsmetrik bei Objekterkennungsaufgaben im maschinellen Lernen.