Wiki
Wir haben Hunderte von verwandten Einträgen zusammengestellt, um Ihnen zu helfen, "künstliche Intelligenz" zu verstehen
Der Beowulf-Cluster ist eine parallele Computerclusterstruktur mit hoher Leistung, die aus kostengünstiger Personalcomputer-Hardware zusammengesetzt ist, um die beste Kosteneffizienz zu erreichen.
Human-Feedback Reinforcement Learning ist eine fortschrittliche Methode zum Trainieren von KI-Systemen, die Reinforcement Learning mit menschlichem Feedback kombiniert.
Bei der Stapelverarbeitung werden eine Reihe von Befehlen oder Programmen nacheinander kombiniert und stapelweise in einer Stapeldatei ausgeführt.
Anwendungen der numerischen Strömungsmechanik laufen am effizientesten auf Hochleistungsrechnersystemen (HPC) mit lokalem Speicher mit hohem Durchsatz, Netzwerken mit geringer Latenz und optimierten CPUs.
Ziel der Data Science (DS) ist es, aus großen Datenmengen wertvolle Informationen, Erkenntnisse und Wissen zu gewinnen.
Field Programmable Gate Array Ein Field Programmable Gate Array (FPGA) ist ein Halbleiterbauelement, das auf einer Matrix aus konfigurierbaren Logikblöcken (CLBs) basiert, die durch eine programmierbare Verbindung verbunden sind. Es kann nach der Herstellung je nach gewünschter Anwendung oder Funktionsanforderungen neu programmiert werden.
In der Computertechnik ist Remote Direct Memory Access (RDMA) eine Technologie für den direkten Speicherzugriff, die Daten ohne Eingreifen der Betriebssysteme beider Computer direkt aus dem Speicher eines Computers auf einen anderen überträgt.
Unter Hardwarebeschleunigung versteht man den Vorgang, rechenintensive Aufgaben zur Verarbeitung in einem Computer an spezialisierte Hardware zu übertragen. Dadurch kann die Arbeitsbelastung der zentralen Verarbeitungseinheit verringert werden und die Leistung ist höher als bei Software, die ausschließlich auf einer Allzweck-CPU ausgeführt wird.
Paralleles Rechnen ist ein Teilgebiet des High Performance Computing (HPC). Im Vergleich zum seriellen Rechnen handelt es sich dabei um einen Rechenmodus, der die Recheneffizienz durch die gleichzeitige Ausführung mehrerer Aufgaben auf mehreren Prozessoren oder Computern verbessert.
High-Throughput-Computing (HTC) ist eine Art des Computing, bei der es darum geht, mithilfe von Ressourcen eine große Anzahl von Rechenaufgaben parallel auszuführen.
Der Begriff High Performance Computing (HPC) ist aus dem Begriff „Supercomputing“ entstanden und bezeichnet einen Bereich der Informatik, der leistungsstarke Rechenressourcen zur Lösung komplexer Probleme nutzt.
Das Big Language Model ist ein Algorithmus der künstlichen Intelligenz. Es wendet neuronale Netzwerktechnologie mit einer großen Anzahl von Parametern an und nutzt selbstüberwachte Lerntechniken, um menschliche Sprache oder Texte zu verarbeiten und zu verstehen.
Ausgabemodulation ist eine Methode zum Transformieren der Ausgabedarstellung und zum Verursachen ihrer Störung, die häufig verwendet wird, um die Vielfalt des Lernenden zu erhöhen. Es geht darum, einen individuellen Lerner zu konstruieren, nachdem die Klassifizierungsausgabe in eine Regressionsausgabe umgewandelt wurde.
Random Forest ist ein vielseitiger Algorithmus, der mehrere Entscheidungsbäume enthält.
Random Walk ist ein statistisches Modell, das aus einer Reihe zufälliger Aktionstrajektorien besteht und zur Darstellung unregelmäßiger Änderungen verwendet wird.
Neural Machine Translation (NMT) ist ein Framework für maschinelle Übersetzung, das auf reinen neuronalen Netzwerken basiert. Es verwendet neuronale Netzwerke, um eine End-to-End-Übersetzung von der Ausgangssprache in die Zielsprache zu erreichen.
Eine neuronale Turingmaschine ist eine Turingmaschine, die auf einem neuronalen Netzwerk basiert. Es handelt sich um einen von der Turingmaschine inspirierten Maschinenalgorithmus, der Differentialfunktionen implementieren kann. Es enthält einen neuronalen Netzwerkcontroller und einen externen Speicher.
Dieselbe Strategie bedeutet, dass die Strategie zum Generieren von Stichproben dieselbe ist wie die Strategie, die beim Aktualisieren der Parameter durch das Netzwerk verwendet wird. Ein typisches Beispiel für dieselbe Strategiemethode ist der SARAS-Algorithmus.
Die Receiver Operating Characteristic (ROC) ist eine Testmetrik für einen System-Matching-Algorithmus. Es handelt sich um eine Beziehung zwischen dem Übereinstimmungsscore-Schwellenwert, der Falsch-Positiv-Rate und der Falsch-Negativ-Rate. Es spiegelt das Gleichgewicht zwischen der Ablehnungsrate und der Falscherkennungsrate des Erkennungsalgorithmus bei verschiedenen Schwellenwerten wider.
Die Restricted Boltzmann Machine ist eine Art zufälliges neuronales Netzwerkmodell mit zweischichtiger Struktur, symmetrischer Verbindung und ohne Selbstrückkopplung.
Simultaneous Localization and Mapping (SLAM) ist eine in der Robotik verwendete Technik.
Statistisches Lernen ist eine Disziplin, die auf Daten basierende probabilistische statistische Modelle erstellt, um Daten vorherzusagen und zu analysieren (auch als statistisches maschinelles Lernen bekannt).
Die alternative Verlustfunktion ist eine Funktion, die verwendet wird, wenn die Berechnung der ursprünglichen Verlustfunktion unpraktisch ist.
Upsampling oder Bildinterpolation wird hauptsächlich verwendet, um das Originalbild zu vergrößern, damit es auf einem Anzeigegerät mit höherer Auflösung angezeigt werden kann.