Computer Vision Toolbox

Entwickeln und Testen von Computer Vision-, 3D Vision- und Videoverarbeitungssystemen

 

Die Computer Vision Toolbox™ bietet Algorithmen, Funktionen und Apps für das Design und den Test von Computer Vision-, 3D Vision- und Videobearbeitungssystemen. Sie ermöglicht Objekterkennung und -Tracking sowie Merkmalserkennung, -extraktion und -abgleich. Für 3D Vision unterstützt die Toolbox die Kalibrierung von Einzel-, Stereo- und Fisheye-Kameras; Stereo Vision; 3D-Rekonstruktionen sowie die Verarbeitung von LiDAR und 3D-Punktwolken. Computer Vision-Apps automatisieren Workflows für die Ground Truth-Kennzeichnung und die Kalibrierung von Kameras.

Sie können benutzerdefinierte Objektdetektoren mit Deep Learning- und Machine Learning-Algorithmen wie YOLO v2, Faster R-CNN und ACF trainieren. Deep Learning-Algorithmen wie SegNet, U-Net und DeepLab unterstützen Sie bei der semantischen Segmentierung. Mit vortrainierten Modellen können Sie Gesichter, Fußgänger und andere häufig vorkommende Objekte erkennen.

Sie können Ihre Algorithmen beschleunigen, indem Sie diese auf Mehrkernprozessoren und Grafikkarten ausführen. Die meisten Algorithmen der Toolbox unterstützen die Codegenerierung in C/C++ für die Integration von vorhandenem Code, das Desktop-Prototyping und die Bereitstellung auf Embedded Vision-Systemen.

Jetzt beginnen:

Deep Learning und Machine Learning

Erfassen, erkennen und segmentieren Sie Objekte mithilfe von Deep Learning und Machine Learning.

Objekterfassung und -erkennung

Nutzen Sie Frameworks zum Trainieren, Bewerten und Bereitstellen von Objektdetektoren wie YOLO v2, Faster R-CNN, ACF und Viola-Jones. Die Objekterkennungsfunktionen umfassen Bag of Visual Words und OCR. Vortrainierte Modelle erkennen Gesichter, Fußgänger und andere häufig vorkommende Objekte.

Objekterfassung mit Faster R-CNN. 

Semantische Segmentierung

Segmentieren Sie Bilder und 3D-Volumen, indem Sie einzelne Pixel und Voxel mit Netzen wie SegNet, FCN, U-Net und DeepLab v3+ klassifizieren.

Ground Truth-Kennzeichnung

Automatisieren Sie die Annotation für die Objekterkennung, die semantische Segmentierung und die Szenenklassifikation mit den Apps Video Labeler und Image Labeler.

Ground Truth-Annotation mit der Video Labeler-App.

LiDAR und Verarbeitung von 3D Punktwolken

Führen Sie Segmentierung, Clustering, Downsampling, Rauschentfernung, Registrierung und Anpassung geometrischer Formen für LiDAR- oder 3D Punktwolken-Daten durch. Die Lidar Toolbox™ stellt  zusätzliche Funktionen für das Design, die Analyse und den Test von LiDAR-verarbeitenden Systemen bereit.

LiDAR und Punktwolken-E/A

Sie können Punktwolken aus Dateien, von LiDAR und von RGB-D-Sensoren lesen, schreiben und anzeigen.

Registrierung von Punktwolken

Registrieren Sie 3D Punktwolken mit den Algorithmen Normal-Distributions Transform (NDT), Iterative Closest Point (ICP) und Coherent Point Drift (CPD).

Registrierung und Zusammenfügung einer Reihe von Punktwolken.

Segmentierung und Formanpassung

Segmentieren Sie Punktwolken zu Clustern und passen Sie geometrische Formen an Punktwolken an. Segmentieren Sie die Bodenfläche in LiDAR-Daten für Anwendungen im automatisierten Fahren und in der Robotik.

Segmentierte LiDAR-Punktwolke.

Kamerakalibrierung

Schätzen Sie intrinsische, extrinsische und Objektivverzeichnungsparameter von Kameras.

Kalibrierung einer Einzelkamera

Automatisieren Sie die Schachbretterkennung und kalibrieren Sie Loch- und Fisheye-Kameras mit der Camera Calibrator-App.

Kalibrierung einer Stereokamera

Kalibrieren Sie ein Stereopaar, um die Tiefe zu berechnen und 3D-Szenen zu rekonstruieren.

Stereo Camera Calibrator-App.

3D Vision und Stereo Vision

Extrahieren Sie die 3D-Struktur einer Szene aus mehreren 2D-Ansichten. Schätzen Sie die Kamerabewegung und -pose mithilfe visueller Odometrie.

Stereo Vision

Schätzen Sie die Tiefe und rekonstruieren Sie eine 3D-Szene mithilfe eines Stereokamerapaars.

Stereo-Disparitätskarte zur Darstellung relativer Tiefen.

Merkmalserkennung, -extraktion und -abgleich

Nutzen Sie merkmalsbasierte Workflows für die Objektdetektion, Bildregistrierung und Objekterkennung.

Erkennung eines Objekts in einer überladenen Szene mithilfe von Punktmerkmalserkennung, -extraktion und -abgleich.

Merkmalsbasierte Bildregistrierung

Sie können Merkmale über mehrere Bilder hinweg abgleichen, um geometrische Transformationen zwischen Bildern zu schätzen und Bildsequenzen zu registrieren.

Mithilfe der merkmalsbasierten Registrierung erstelltes Panorama.

Objekt Tracking und Bewegungsschätzung

Schätzen Sie Bewegungen und verfolgen Sie Objekte in Video- und Bildsequenzen.

Bewegungsschätzung

Schätzen Sie Bewegungen zwischen Video-Bildern (Frames) mithilfe von optischem Fluss, Block Matching und Template Matching.

Erkennung sich bewegender Objekte mit einer stationären Kamera.

OpenCV-Schnittstelle

Schnittstelle von MATLAB und Simulink mit OpenCV-basierten Projekten und Funktionen.

Codegenerierung

Integrieren Sie die Algorithmenentwicklung mit Workflows für Rapid Prototyping, Implementierung und Verifizierung.

Neue Funktionen

Mask-RCNN

Trainieren von Mask-RCNN-Netzen, Segmentierung, mithilfe von Deep Learning

Visuelles SLAM

Verwalten von 3D-Weltpunkten und Projektionskorrespondenzen zu 2D-Bildpunkten

Schätzen der AprilTags-Posen

Erkennen und Schätzen der AprilTags-Posen in einem Bild für Robotik und bei der Kalibrierung der Augmented-Reality-Anwendungskamera

Registrierung von Punktwolken

Registrierung von Punktwolken mittels Phasenkorrelation für SLAM-Anwendungen

Erkennung von Punktwolken-Schleifenverschlüssen

Punktwolken-Merkmalsdeskriptor für SLAM-Schleifenverschluss-Erkennung

Details zu diesen Funktionsmerkmalen und den zugehörigen Funktionen finden Sie in den Release Notes.