G06N 3/045

Definition

Diese Klassifikationsstelle umfasst:

Architekturen, bei denen mehrere neuronale Netze parallel oder in Reihe geschaltet sind, einschließlich modularer Architekturen, bei denen Komponenten/Module als neuronale Netze dargestellt werden können. Die neuronalen Netze können auf derselben Ebene zusammenarbeiten, oder ein neuronales Netz kann ein anderes neuronales Netz darstellen, approximieren, konstruieren, ergänzen, unterstützen, erklären oder steuern.

Parallele neuronale Netze können auch zur Fehlertoleranz beim Anschluss an ein Votingsystem verwendet werden.

Mehrere neuronale Netze können auch auf unterschiedliche Weise oder mit unterschiedlichen Trainingsbeispielen trainiert und dann parallel kombiniert werden, um die Zuverlässigkeit oder Genauigkeit zu erhöhen.

Typische Beispiele für solche neuronalen Netzmodelle: Multiple neuronale Netze, hierarchische Netze, Pyramidal Networks, modulare Netze, Ensembles neuronaler Netze, gestapelte Netze, kaskadierte Netze, Mixture of Expert Netze [MoE-Netze], hierarchische temporale Speicher [Hierarchical Temporal Memories, HTM], kortikale Lernalgorithmen [Cortical Learning Algorithms, CLA], Duellierende Netze, Adversarial Networks, Siamesische Netze, Triplettnetze, Latent-Space-Modelle, Network Embeddings, gedächtniserweiterte neuronale Netze [Memory-Augmented Neural Networks, MANN], neuronale Netze mit Gedächtnis [Memory Networks], neuronale Turingmaschinen [Neural Turing Machines, NTM], differenzierbare neuronale Computer [Differentiable Neural Computers, DNC], Netze mit Aufmerksamkeitsmechanismen, Transformatoren [Transformers], bidirektionale Encoderrepräsentationen von Transformatoren [Bidirectional Encoder Representations From Transformers, BERT), generative vortrainierte Transformatoren [Generative Pre-Trained Transformers, GPT-2, GPT-3), verteilte neuronale Netze.

Querverweise

Informative Querverweise

Ensemblemethoden
G06N 20/20