Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen

Adversariale Robustheit Neuronaler Netze

29,99 €

Sofort verfügbar, Lieferzeit: Sofort lieferbar

Format auswählen

Adversariale Robustheit Neuronaler Netze, diplom.de
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Von Bijan Kianoush Riesenberg, im heise Shop in digitaler Fassung erhältlich

Produktinformationen "Adversariale Robustheit Neuronaler Netze"

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

Artikel-Details

Anbieter:
diplom.de
Autor:
Bijan Kianoush Riesenberg
Artikelnummer:
9783961163960
Veröffentlicht:
29.12.20