G06F 18/211

Definition

Diese Klassifikationsstelle umfasst:

Auswahl von Merkmalen mit Hilfe von evolutionären Computertechniken, z.B. genetischen Algorithmen.

Auswahl von Merkmalen durch Einstufung oder Filterung der Merkmalsmenge, z.B. unter Verwendung eines Maßes für die Varianz oder für die Kreuzkorrelation der Merkmale.

Auswahl von Merkmalen durch Bewertung der Separierbarkeit von Klassen auf der Grundlage von Abstands- oder (Un-)Ähnlichkeitsmaßen zwischen (Teil-)Mengen von Datenstichproben. Die Absicht bei der Anwendung von Abstandsmetriken, die auf Merkmalen definiert sind, ist es, Objekte, die zur selben Klasse gehören, d.h. innerhalb einer Klasse kleine Abstände aufweisen [small intraclass distances], aufzunehmen, während man Objekte verschiedener Klassen, die weit voneinander entfernt sind, in verschiedene Klassen einordnet, d.h. zwischen den Klassen liegen große Abstände [large interclass distances].

Die Verarbeitung kann iterativ erfolgen und ausgehend von einem Zustand ohne Stichproben sukzessive Datenstichproben durch Auswertung eines Modellanpassungskriteriums einbeziehen, d.h. “vorwärts” selektieren, oder ausgehend von allen Stichproben sukzessive Stichproben durch Auswertung eines Modellanpassungskriteriums löschen, d.h. rückwärts eliminieren.

G06F 18/211

Definition Statement

This place covers:

Feature selection by using evolutionary computational techniques, e.g. genetic algorithms.

Feature selection by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation.

Feature selection by evaluating class separability based on distance or (dis)similarity measures between (sub)sets of data samples. The intention for adopting distance metrics defined on features is to embed objects belonging to the same class, i.e. small intraclass distances, while embedding objects of different classes far away from each other in different classes, i.e. large interclass distances.

The processing can be iterative and, starting with no samples, it can successively include data samples by evaluating a model fit criterion, i.e. “forward” selection, or starting with all the samples and successively delete samples by evaluating a model fit criterion, i.e. backward elimination.