G06N 3/048

Definition

Diese Klassifikationsstelle umfasst:

Funktion, die eine gewichtete Summe von Eingangsdaten in ein Ausgangssignal umwandelt. In künstlichen neuronalen Netzen bestimmt die Größe der gewichteten Summe für die vorherige Schicht, ob diese aktiv ist oder nicht.

Typische Beispiele für Aktivierungsfunktionen: Sigmoid, logistisch, hyperbolischer Tangens [tanh], Stufenfunktion, Heaviside-Funktion, Schwellenwert, Softmax, Maxout, Rectified Linear Unit (ReLU), stückweise lineare Aktivierungsfunktionen, radiale Basisfunktionen [RBF], Gaussian Error Linear Unit [GELU], Exponential Linear Unit [ELU], Ridge-Funktionen, Fold-Funktionen.