G06N 3/094

Definition

Diese Klassifikationsstelle umfasst:

Lernverfahren, das darauf abzielt, Modelle des maschinellen Lernens durch irreführende, verzerrte oder verrauschte Eingaben zu überlisten. Dazu gehören sowohl die Generierung und Erkennung gegnerischer Beispiele, d.h. Eingaben, die speziell zur Täuschung von Klassifizierern erstellt wurden, als auch Techniken zur Verbesserung der Robustheit des neuronalen Netzes gegenüber gegnerischen/verfälschenden Angriffen.Typische Beispiele oder Merkmale solcher Lern- oder Trainingsverfahren: Wasserstein-Verlust [Wasserstein Loss], Earth-Mover’s-Metrik [Earth Mover’s Distance], Adversarial Regularization, Fast-Gradient-Sign-Methode [FGSM], projizierter Gradientenabstieg [Projected Gradient Descent, PGD], Carlini & Wagner-Algorithmus, Black-Box- oder White-Box-Angriffe, Byzantinische Angriffe [Byzantine Attacks], Datenverfälschung [Data Poisoning], Model Extraction, Model Reverse Engineering, Model Stealing.