Produkte & Dienstleistungen

Deep Learning Toolbox Verification Library

Sicherstellen von Robustheit und Zuverlässigkeit tiefer neuronaler Netze

Durch den zunehmenden Einsatz tiefer neuronaler Netze in technischen Systemen, insbesondere sicherheitskritischen Anwendungen, muss deren Zuverlässigkeit und Robustheit sichergestellt werden. Mit der Deep Learning Toolbox Verification Library können Sie tiefe neuronale Netze gründlich bewerten und testen.

Die Deep Learning Toolbox Verification Library ermöglicht Ihnen Folgendes:

  • Verifizieren von Eigenschaften Ihres tiefen neuronalen Netzes, beispielsweise der Robustheit von Gegenbeispielen
  • Schätzen der Sensitivität Ihrer Netzprognosen bei gestörten Eingaben
  • Erstellen eines Verteilungsdiskriminators, der Daten in solche inner- bzw. außerhalb der Verteilung aufteilt, um sie zur Laufzeit zu überwachen
  • Bereitstellen eines Systems zur Laufzeitüberwachung, das für die Leistung Ihres Netzes zuständig ist
  • Ansehen einer Fallstudie zur Verifikation eines luftgestützten Deep-Learning-Systems
Abbildung eines Desktopcomputers, auf dem Quantencomputing mit MATLAB ausgeführt wird.

Verifizieren der Robustheit tiefer neuronaler Netze zur Klassifizierung

Steigern Sie die Robustheit Ihres Netzes gegenüber Gegenbeispielen (leicht veränderte Eingaben zum Irreführen des Netzes) mithilfe formaler Methoden. Dieser Ansatz ermöglicht das Testen einer unbegrenzten Sammlung von Eingaben, den Nachweis der Prognosekonsistenz trotz Störungen und das Lenken von Trainingsverbesserungen, um Zuverlässigkeit und Genauigkeit des Netzes zu steigern.

Abschätzen der Ausgabegrenzen des neuronalen Netzes zur Regression

Schätzen Sie die unteren und oberen Grenzen der Netzausgabe bezüglich vorgegebener Eingabebereiche mithilfe formaler Methoden. Damit können Sie Einblick in die potenziellen Netzausgaben bei bestimmten Eingabestörungen erhalten, um zuverlässige Leistung in Szenarien wie Regelungssystemen, Signalverarbeitung und vielen anderen zu ermöglichen.

Erstellen sicherer Deep-Learning-Systeme mit Laufzeitüberwachung

Binden Sie Laufzeitüberwachung in die Erkennung von Daten außerhalb der Verteilung ein, um sichere Deep-Learning-Systeme zu entwickeln. Die kontinuierliche Auswertung dahingehend, ob die Eingangsdaten mit den Trainingsdaten übereinstimmen, kann bei der Entscheidung helfen, ob die Netzausgabe zuverlässig ist oder ob sie zur sicheren Bearbeitung weitergeleitet werden muss. Dies verbessert Sicherheit und Zuverlässigkeit des Systems.

Fallstudie: Verifizieren eines luftgestützten Deep-Learning-Systems

Erkunden Sie eine Fallstudie, um ein luftgestütztes Deep-Learning-System in Übereinstimmung mit Standards der Luft- und Raumfahrt wie DO-178C, ARP4754A sowie künftigen EASA- und FAA-Richtlinien zu verifizieren. Diese Fallstudie bietet einen umfassenden Blick auf die notwendigen Schritte zur vollständigen Einhaltung von Branchenstandards und -richtlinien für Deep-Learning-Systeme.

Deep Learning mit Randbedingungen

Deep Learning mit Randbedingungen ist ein komplexer Ansatz für das Trainieren tiefer neuronaler Netze durch das Einbeziehen domänenspezifischer Einschränkungen in den Lernprozess. Durch das Einbinden dieser Randbedingungen in das Erstellen und Trainieren neuronaler Netze können Sie das erwünschte Verhalten in sicherheitskritischen Szenarien garantieren, wo solche Zusicherungen von größter Wichtigkeit sind.

Erklärbarkeit

Vollziehen Sie den Entscheidungsprozess Ihres Netzes durch den Einsatz von Erklärbarkeitstechniken nach. Nutzen Sie Modelle wie den D-RISE-Algorithmus (Detektor-randomisiertes Eingabe-Sampling zur Erklärung), um Heraushebungskarten für Objektdetektoren zu berechnen und die konkreten Bereiche in den Eingabedaten mit dem größten Einfluss auf die Netzprognosen zu visualisieren.