HyperAI

Schwellenwert-Logikeinheit

Schwellenwert-Logikeinheit TLU ist die Grundeinheit eines neuronalen Netzwerks und sein schematisches Diagramm sieht wie folgt aus:

Jeder Eingabewert und das entsprechende Gewicht werden multipliziert und summiert. Wenn die Summe größer als der TLU-Schwellenwert ist, ist die Ausgabe 1, andernfalls ist die Ausgabe 0. Eine einzelne TLU kann für einfache Aktionsberechnungen verwendet werden, aber zum Bilden eines neuronalen Netzwerks sind Komponenten wie TLU erforderlich.

Die Schwellenwert-Logikeinheit ist eigentlich eine Netzwerkstruktur, die aus zwei Schichten von Neuronen besteht. Es empfängt externe Eingaben auf der Eingabeebene und überträgt das Signal durch die Transformation der Aktivierungsfunktion an die Ausgabeebene. Daher wird es als „Schwellenwert-Logikeinheit“ bezeichnet.