Command Palette
Search for a command to run...
Wiki
Machine Learning Glossary: Definitionen und Erklärungen wichtiger KI- und ML-Konzepte erkunden
Grouped Query Attention (GQA) ist eine Methode, die zwischen Multi-Query Attention (MQA) und Multi-Head Attention (MHA) in Large Language Models (LLM) interpoliert.
In der Informatik werden regelbasierte Systeme zum Speichern und Nutzen von Wissen eingesetzt, um Informationen sinnvoll zu interpretieren.
Generative künstliche Intelligenz (AIGC) ist ein KI-System, das als Reaktion auf Eingabeaufforderungen Text, Bilder oder andere Medien generieren kann, darunter Text, Bilder, Videos und 3D-Modelle.
Ein Rechenknoten ist ein Computer und seine unterstützende Ausrüstung, die im Bereich der Informatik und Technologie verwendet wird.
In der Computertechnik ist der Cache-Speicher ein temporärer Speicher, der zum Speichern von Daten verwendet wird, auf die häufig zugegriffen wird, oder der während der Ausführung eines Computerprogramms vorübergehend gespeichert wird, um die Geschwindigkeit beim Lesen und Zugreifen auf Daten zu erhöhen.
Random Access Memory (RAM), auch Hauptspeicher genannt, ist der Arbeitsspeicher des Computers, der zum Speichern der Daten verwendet wird, die der Prozessor aktuell verwendet.
Read-Only-Memory (ROM) ist ein nichtflüchtiger Speichertyp, der in Computern und anderen elektronischen Geräten verwendet wird.
In der künstlichen Intelligenz sind Expertensysteme Computersysteme, die die Entscheidungsfähigkeiten menschlicher Experten simulieren. Expertensysteme sind das wichtigste und aktivste Anwendungsfeld der künstlichen Intelligenz. Es ist ein wichtiger Durchbruch beim Übergang der künstlichen Intelligenz von der theoretischen Forschung zur praktischen Anwendung und von der Diskussion allgemeiner Denkstrategien zur Nutzung von Fachwissen gelungen.
Zero-Copy-Technologie bedeutet, dass die CPU bei der Ausführung einer Operation durch einen Computer die Daten nicht zuerst von einem Speicherort in einen anderen bestimmten Bereich kopieren muss.
Der Hauptzweck von Zero-Shot besteht darin, Ergebnisse ohne Trainingsbeispiele vorhersagen zu können. Die Maschine muss Objekte aus Klassen erkennen, auf die sie während des Trainings nicht trainiert wurde. Zero-Shot-Learning basiert auf der Wissensvermittlung, die bereits in den im Training vermittelten Beispielen enthalten ist.
MMLU bietet eine Möglichkeit, verschiedene Sprachmodelle wie OpenAI GPT-4, Mistral 7b, Google Gemini und Anthropic Claude 2 zu testen und zu vergleichen.
AIOps bezieht sich auf die Verwendung von Big Data, erweiterten Analysen und maschinellem Lernen zur Verbesserung der operativen und funktionalen Arbeitsabläufe von IT-Teams.
Apptainer ist ein Containersystem für High Performance Computing (HPC), früher bekannt als Singularity. Es wird zum Erstellen und Ausführen von Linux-Containern, Verpackungssoftware, Bibliotheken und Laufzeitcompilern in isolierten Umgebungen verwendet.
Der Beowulf-Cluster ist eine parallele Computerclusterstruktur mit hoher Leistung, die aus kostengünstiger Personalcomputer-Hardware zusammengesetzt ist, um die beste Kosteneffizienz zu erreichen.
Human-Feedback Reinforcement Learning ist eine fortschrittliche Methode zum Trainieren von KI-Systemen, die Reinforcement Learning mit menschlichem Feedback kombiniert.
Bei der Stapelverarbeitung werden eine Reihe von Befehlen oder Programmen nacheinander kombiniert und stapelweise in einer Stapeldatei ausgeführt.
Anwendungen der numerischen Strömungsmechanik laufen am effizientesten auf Hochleistungsrechnersystemen (HPC) mit lokalem Speicher mit hohem Durchsatz, Netzwerken mit geringer Latenz und optimierten CPUs.
Ziel der Data Science (DS) ist es, aus großen Datenmengen wertvolle Informationen, Erkenntnisse und Wissen zu gewinnen.
Field Programmable Gate Array Ein Field Programmable Gate Array (FPGA) ist ein Halbleiterbauelement, das auf einer Matrix aus konfigurierbaren Logikblöcken (CLBs) basiert, die durch eine programmierbare Verbindung verbunden sind. Es kann nach der Herstellung je nach gewünschter Anwendung oder Funktionsanforderungen neu programmiert werden.
In der Computertechnik ist Remote Direct Memory Access (RDMA) eine Technologie für den direkten Speicherzugriff, die Daten ohne Eingreifen der Betriebssysteme beider Computer direkt aus dem Speicher eines Computers auf einen anderen überträgt.
Unter Hardwarebeschleunigung versteht man den Vorgang, rechenintensive Aufgaben zur Verarbeitung in einem Computer an spezialisierte Hardware zu übertragen. Dadurch kann die Arbeitsbelastung der zentralen Verarbeitungseinheit verringert werden und die Leistung ist höher als bei Software, die ausschließlich auf einer Allzweck-CPU ausgeführt wird.
Paralleles Rechnen ist ein Teilgebiet des High Performance Computing (HPC). Im Vergleich zum seriellen Rechnen handelt es sich dabei um einen Rechenmodus, der die Recheneffizienz durch die gleichzeitige Ausführung mehrerer Aufgaben auf mehreren Prozessoren oder Computern verbessert.
High-Throughput-Computing (HTC) ist eine Art des Computing, bei der es darum geht, mithilfe von Ressourcen eine große Anzahl von Rechenaufgaben parallel auszuführen.
Der Begriff High Performance Computing (HPC) ist aus dem Begriff „Supercomputing“ entstanden und bezeichnet einen Bereich der Informatik, der leistungsstarke Rechenressourcen zur Lösung komplexer Probleme nutzt.
Grouped Query Attention (GQA) ist eine Methode, die zwischen Multi-Query Attention (MQA) und Multi-Head Attention (MHA) in Large Language Models (LLM) interpoliert.
In der Informatik werden regelbasierte Systeme zum Speichern und Nutzen von Wissen eingesetzt, um Informationen sinnvoll zu interpretieren.
Generative künstliche Intelligenz (AIGC) ist ein KI-System, das als Reaktion auf Eingabeaufforderungen Text, Bilder oder andere Medien generieren kann, darunter Text, Bilder, Videos und 3D-Modelle.
Ein Rechenknoten ist ein Computer und seine unterstützende Ausrüstung, die im Bereich der Informatik und Technologie verwendet wird.
In der Computertechnik ist der Cache-Speicher ein temporärer Speicher, der zum Speichern von Daten verwendet wird, auf die häufig zugegriffen wird, oder der während der Ausführung eines Computerprogramms vorübergehend gespeichert wird, um die Geschwindigkeit beim Lesen und Zugreifen auf Daten zu erhöhen.
Random Access Memory (RAM), auch Hauptspeicher genannt, ist der Arbeitsspeicher des Computers, der zum Speichern der Daten verwendet wird, die der Prozessor aktuell verwendet.
Read-Only-Memory (ROM) ist ein nichtflüchtiger Speichertyp, der in Computern und anderen elektronischen Geräten verwendet wird.
In der künstlichen Intelligenz sind Expertensysteme Computersysteme, die die Entscheidungsfähigkeiten menschlicher Experten simulieren. Expertensysteme sind das wichtigste und aktivste Anwendungsfeld der künstlichen Intelligenz. Es ist ein wichtiger Durchbruch beim Übergang der künstlichen Intelligenz von der theoretischen Forschung zur praktischen Anwendung und von der Diskussion allgemeiner Denkstrategien zur Nutzung von Fachwissen gelungen.
Zero-Copy-Technologie bedeutet, dass die CPU bei der Ausführung einer Operation durch einen Computer die Daten nicht zuerst von einem Speicherort in einen anderen bestimmten Bereich kopieren muss.
Der Hauptzweck von Zero-Shot besteht darin, Ergebnisse ohne Trainingsbeispiele vorhersagen zu können. Die Maschine muss Objekte aus Klassen erkennen, auf die sie während des Trainings nicht trainiert wurde. Zero-Shot-Learning basiert auf der Wissensvermittlung, die bereits in den im Training vermittelten Beispielen enthalten ist.
MMLU bietet eine Möglichkeit, verschiedene Sprachmodelle wie OpenAI GPT-4, Mistral 7b, Google Gemini und Anthropic Claude 2 zu testen und zu vergleichen.
AIOps bezieht sich auf die Verwendung von Big Data, erweiterten Analysen und maschinellem Lernen zur Verbesserung der operativen und funktionalen Arbeitsabläufe von IT-Teams.
Apptainer ist ein Containersystem für High Performance Computing (HPC), früher bekannt als Singularity. Es wird zum Erstellen und Ausführen von Linux-Containern, Verpackungssoftware, Bibliotheken und Laufzeitcompilern in isolierten Umgebungen verwendet.
Der Beowulf-Cluster ist eine parallele Computerclusterstruktur mit hoher Leistung, die aus kostengünstiger Personalcomputer-Hardware zusammengesetzt ist, um die beste Kosteneffizienz zu erreichen.
Human-Feedback Reinforcement Learning ist eine fortschrittliche Methode zum Trainieren von KI-Systemen, die Reinforcement Learning mit menschlichem Feedback kombiniert.
Bei der Stapelverarbeitung werden eine Reihe von Befehlen oder Programmen nacheinander kombiniert und stapelweise in einer Stapeldatei ausgeführt.
Anwendungen der numerischen Strömungsmechanik laufen am effizientesten auf Hochleistungsrechnersystemen (HPC) mit lokalem Speicher mit hohem Durchsatz, Netzwerken mit geringer Latenz und optimierten CPUs.
Ziel der Data Science (DS) ist es, aus großen Datenmengen wertvolle Informationen, Erkenntnisse und Wissen zu gewinnen.
Field Programmable Gate Array Ein Field Programmable Gate Array (FPGA) ist ein Halbleiterbauelement, das auf einer Matrix aus konfigurierbaren Logikblöcken (CLBs) basiert, die durch eine programmierbare Verbindung verbunden sind. Es kann nach der Herstellung je nach gewünschter Anwendung oder Funktionsanforderungen neu programmiert werden.
In der Computertechnik ist Remote Direct Memory Access (RDMA) eine Technologie für den direkten Speicherzugriff, die Daten ohne Eingreifen der Betriebssysteme beider Computer direkt aus dem Speicher eines Computers auf einen anderen überträgt.
Unter Hardwarebeschleunigung versteht man den Vorgang, rechenintensive Aufgaben zur Verarbeitung in einem Computer an spezialisierte Hardware zu übertragen. Dadurch kann die Arbeitsbelastung der zentralen Verarbeitungseinheit verringert werden und die Leistung ist höher als bei Software, die ausschließlich auf einer Allzweck-CPU ausgeführt wird.
Paralleles Rechnen ist ein Teilgebiet des High Performance Computing (HPC). Im Vergleich zum seriellen Rechnen handelt es sich dabei um einen Rechenmodus, der die Recheneffizienz durch die gleichzeitige Ausführung mehrerer Aufgaben auf mehreren Prozessoren oder Computern verbessert.
High-Throughput-Computing (HTC) ist eine Art des Computing, bei der es darum geht, mithilfe von Ressourcen eine große Anzahl von Rechenaufgaben parallel auszuführen.
Der Begriff High Performance Computing (HPC) ist aus dem Begriff „Supercomputing“ entstanden und bezeichnet einen Bereich der Informatik, der leistungsstarke Rechenressourcen zur Lösung komplexer Probleme nutzt.