Mit dem Zweiten sieht man einfach besser

Fertigungsautomation

Stereovision-System - Eine genaue dreidimensionale Umgebungserfassung ist eine Grundvoraussetzung für viele Anwendungen in der Robotik und Automatisierungstechnik. Bei schwierigen Lichtverhältnissen stoßen aktive Kamerasysteme jedoch an ihre Grenzen. Eine mögliche Alternative ist passives Stereovision. Hier erfassen zwei oder mehrere Kameras die Umgebung aus unterschiedlichen Betrachtungspositionen, wie der Fachbeitrag von Nerian Vision Technologies verdeutlicht.

01. Juni 2016

Auch die Messung von großen Entfernungen stellt aktive Systeme vor Herausforderungen. Denn je größer die Distanz, desto größer wird die Fläche, die beleuchtet werden muss. Da die Lichtquelle eines aktiven Systems nur eine endliche Lichtmenge liefern kann, existiert in der Regel eine feste Obergrenze für die maximal messbare Entfernung. Dies macht aktive Kamerasysteme für Anwendungsfälle wie autonome Fahrzeuge unattraktiv, da diese eine weite Voraussicht erfordern.

Beim passiven Stereovision wird die Umgebung durch zwei oder mehr Kameras mit unterschiedlichen Betrachtungspositionen erfasst. Durch intelligente Bildverarbeitung lässt sich dann die räumliche Tiefe und somit die dreidimensionale Struktur der abgebildeten Umgebung rekonstruieren. Da bei Stereovision kein Licht ausgesendet wird, ist die Helligkeit der Umgebung nicht von Bedeutung, und es gibt keine feste Obergrenze für die maximal messbare Entfernung. Des Weiteren wird nur ein Bild pro Kamera benötigt, wodurch sich Stereo-vision besonders gut für die Beobachtung bewegter Objekte eignet. Trotz dieser Vorzüge findet Stereovision derzeit nur selten einen Einsatz in der Robotik und Automatisierungstechnik. Einer der Hauptgründe hierfür ist die enorme Rechenleistung, welche für die erforderliche Bildverarbeitung benötigt wird. Als Beispiel soll der Fall zweier Kameras mit einer Auflösung von 720 x 480 Pixel und einer Bildrate von 30 Hertz betrachtet werden: Wenn wir die maximale Differenz der Pixelpositionen zweier übereinstimmender Bildpunkte aus beiden Kamerabildern auf 100 Pixel begrenzen, sind pro Sekunde noch mehr als eine Milliarde Bildpunkte miteinander zu vergleichen. Sollen qualitativ hochwertige Ergebnisse erzielt werden, so ist der reine Bildvergleich jedoch nicht ausreichend. Moderne Methoden zur Stereobildverarbeitung setzen deshalb auf Optimierungsverfahren, welche versuchen eine optimale Zuordnung von übereinstimmenden Bildpunkten aus beiden Kamerabildern zu finden. Die Qualität wird ganz deutlich besser, aber es ist auch viel mehr Rechenleistung erforderlich.

Überlässt man die Bildverarbeitung einer gewöhnlichen Software, so muss man sich deshalb zwangsläufig zwischen einer schnellen Verarbeitung oder genauen Ergebnissen entscheiden. Abhilfe kann hier eine Auslagerung der Bildverarbeitung auf besonders leistungsfähige High-End-Grafikkarten schaffen. Diese haben jedoch einen hohen Stromverbrauch, was gerade bei mobilen Systemen einen Einsatz verhindert.

Immense Leistungssteigerung

Zur Lösung dieser Herausforderung hat Nerian Vision Technologies eine spezielle Hardware für die Stereobildverarbeitung entwickelt. Mittels eines programmierbaren Logikbausteins, ein sogenannter FPGA, ist es möglich, die nötigen Bildverarbeitungsalgorithmen direkt in Hardware abzubilden. Dadurch lässt sich eine massive Parallelisierung erwirken, was zu einer immensen Leistungssteigerung im Vergleich zu einer rein softwarebasierten Lösung führt. Trotz dieser hohen Leistung sind FPGAs dennoch besonders stromsparend, was einen Einsatz selbst auf mobilen Systemen erlaubt.

Das Ergebnis dieser Entwicklung ist das SP1-Stereovision-System: ein eingebettetes System für die Stereobildverarbeitung. Das SP1 wird mit zwei USB-Industriekameras verbunden und übernimmt sämtliche Bildverarbeitungsschritte. Das errechnete Tiefenbild wird anschließend per Gigabit-Ethernet an einen PC oder ein weiteres eingebettetes System übertragen.

Dank des eingesetzten FPGAs ist das SP1 in der Lage, Tiefendaten zu mehr als neun Millionen Bildpunkten pro Sekunde zu berechnen. Dies entspricht einer Auflösung von 640 x 480 Pixel bei 30 Bildern pro Sekunde, oder 800 x 592 Pixel bei 20 Bildern pro Sekunde. Das Tiefenbild ist farbcodiert, wobei rote Farbtöne nahen und blaue Farbtöne weit entfernten Bildpunkten entsprechen. Mit nur wenig Aufwand lässt sich das Tiefenbild in eine 3D-Punktwolke konvertieren, was die Datenauswertung erleichtert.

Eine Standardkamera reicht

Nerian hat sich bewusst für die Verwendung von Standard-Industriekameras entschieden. Dies lässt dem Benutzer die Wahl über Bildsensor, Optik und Abstand zwischen den Kameras (Basisbreite). Je nach Anwendungsfall sind unterschiedliche Kombinationen sinnvoll. Sollen weit entfernte Objekte beobachtet werden, so sind eine hohe Basisbreite und Objektive mit hoher Brennweite zu empfehlen. Diese führen zu einer hohen Tiefenauflösung bei entfernten Objekten, erfordern jedoch auch einen hohen Mindestabstand zu den Kameras. Sollen besonders nahe Objekte beobachtet werden, sollten deshalb eine kurze Basisbreite und Objektive mit geringer Brennweite eingesetzt werden.

Da der Benutzer die volle Kontrolle über das Kamerasetup behält, kann er dieses entsprechend seiner Anforderungen anpassen. Sollten sich die Messgegebenheiten ändern, so ist lediglich eine Anpassung der Kamerapositionierung oder ein Austausch der Objektive nötig. Nach einer kurzen manuellen Kalibrierung ist das System dann erneut einsatzfähig und kann sich fortan selbst nachkalibrieren. Dadurch ist das SP1 laut Aussagen des Herstellers besonders flexibel einsetzbar und eignet sich selbst für Anwendungsfälle mit ungewöhnlichen oder variablen Messanforderungen.

Nerian Vision Technologies hofft, dass mit der Einführung des SP1 das passive Stereovision eine größere Verbreitung in der Robotik- und Automatisierungstechnik finden wird. Denn die beschriebenen Vorzüge von Stereovision werden in dieser Kombination von keinem anderen Sensorsystem erfüllt. Dies macht Stereovision zu einer wichtigen Sensortechnologie für künftige Robotik- und Automatisierungsprojekte.

Halle A5, Stand 139F

Erschienen in Ausgabe: 01/2016