Ein probabilistisches grafisches Modell [Probabilistic Graphical Model, PGM] ist ein wahrscheinlichkeitstheoretisches Modell, bei dem ein Graph die bedingte Abhängigkeitsstruktur zwischen Zufallsvariablen ausdrückt, wie z.B. Bayessche Netze, Markov-Modelle, Markov-Entscheidungsprozess [Markov Decision Process, MDP], bedingte Zufallsfelder [Conditional Random Fields, CRF], Markov-Ketten-Monte Carlo [Markov Chain Monte Carlo, MCMC]. Typische Beispiele für grafische Modelle: strukturierte probabilistische Modelle, Bayes-Netze, Modelle auf Basis gerichteter azyklischer Graphen [directed acyclic graph models], Belief Propagation, Einflussdiagramme, latente Dirichlet-Zuweisung [Latent Dirichlet Allocation, LDA], Bayes-Klassifikatoren, Bayes-Optimierung, Ising-Modelle, Pott-Modelle, Spin-Glas-Modelle, Markov-Ketten, Markov-Netze, Markov Random Fields [MRF].
Die Klassifikation in diese Gruppe wird nicht erwartet, wenn probabilistische grafische Modelle in neuronalen Netzen verwendet werden (z.B. Boltzmann-Maschinen). Anwendungen jeglicher Art, die lediglich Bayes- oder Markov-Modelle verwenden, ohne dass das Bayes- oder Markov-Modell selbst beschrieben wird, sind dem entsprechenden Anwendungsbereich zuzuordnen. Das Lernen unbekannter Parameter des Netzes wird auch nach G06N 20/00 klassifiziert.
Videospiele | A63F 13/00 |
Wiederauffinden von Informationen | G06F 16/00 |
Klassifizierung oder Clusteranalyse von Dokumenten für das Wiederauffinden von Informationen | G06F 16/35 |
Mustererkennung | G06F 18/00 |
Klassifizierung von Inhalten in der bildbasierten Mustererkennung | G06V 30/413 |
Spracherkennung | G10L 15/00 |
Rekurrente Netze, z.B. Hopfield-Netze | G06N 3/044 |
Neuronale Netze mit einem probabilistischen Aspekt | G06N 3/047 |
Generative Netze | G06N 3/0475 |