G06N 3/084

Definition

Diese Klassifikationsstelle umfasst:

Trainingsverfahren, bei dem die Synapsen der Neuronen in Abhängigkeit von der Differenz zwischen dem tatsächlichen Output des neuronalen Netzes und dem gewünschten Output angepasst werden. Diese Differenz wird verwendet, um die Gewichte der Synapsen mit einem mathematischen Verfahren anzupassen, das von den höheren Schichten auf die niedrigeren Schichten des neuronalen Netzes zurückwirkt (Backpropagation). Hauptsächlich in mehrschichtigen neuronalen Netzen verwendet.

Typische Beispiele für derartige Lern- oder Trainingsverfahren: Feedback Alignment, automatische Differenzierung, Backprop, Error-Backpropagation, Rückwärtspropagation von Fehlern auf der Grundlage von Gradientenanstieg oder Gradientenabstieg (z.B. stochastischer oder Minibatch-Gradientenabstieg, Adagrad, Adam, RMSprop).