Bildverarbeitungssoftware Machine-Vision-Software: Optimierte Kerntechnologien und Deep-Learning

Redakteur: Gudrun Zehrer

MVTec Software bringt Ende November 2020 die Version 20.11 ihrer Machine-Vision-Standardsoftware Halcon mit zahlreichen neuen und überarbeiteten Features auf den Markt.

Anbieter zum Thema

Das Release der Machine-Vision-Software Halcon 20.11 erscheint gleichzeitig in einer Steady- und einer Progress-Edition. Damit steht nun auch Halcon-Steady-Kunden die ganze Bandbreite an neuen Progress-Features zur Verfügung.
Das Release der Machine-Vision-Software Halcon 20.11 erscheint gleichzeitig in einer Steady- und einer Progress-Edition. Damit steht nun auch Halcon-Steady-Kunden die ganze Bandbreite an neuen Progress-Features zur Verfügung.
(Bild: MVTec)

In Halcon 20.11 haben die MVTec-Experten einige Kerntechnologien optimiert: So wurde mit Dot-Code ein neuer 2D-Code-Typ hinzugefügt. Dieser basiert auf einer Punkte-Matrix und lässt sich sehr schnell drucken. Er eignet sich daher besonders für Anwendungen, die mit hoher Geschwindigkeit ablaufen – wie sie etwa häufig in der Tabakindustrie vorkommen. Mit einem weiteren neuen Feature namens Deep OCR bietet MVTec erstmalig einen ganzheitlich Deep-Learning-basierten Ansatz für die optische Zeichenerkennung (OCR). Damit lassen sich Zahlen und Buchstaben unabhängig von ihrer Ausrichtung, Schriftart und Polarität wesentlich robuster lokalisieren, so MVTec. Dank automatischer Gruppierung von Zeichen können auch ganze Wörter identifiziert werden. Dies soll die Erkennungsleistung verbessern und Fehlinterpretationen von Zeichen mit ähnlichem Aussehen verhindern.

Mehr Benutzerfreundlichkeit und schnelleres 3D-Matching

Ebenso wurde in Halcon 20.11 die Kerntechnologie „formbasiertes Matching“ optimiert: Es werden nun mehr Parameter automatisch geschätzt, was die Benutzerfreundlichkeit sowie die Matching-Rate in Situationen mit geringem Kontrast und starkem Rauschen verbessert. Weiterhin ist das kantenunterstützte, oberflächenbasierte 3D-Matching bei 3D-Szenen mit vielen Objekten und Kanten jetzt deutlich schneller. Zudem hat sich die Usability vereinfacht, da kein Blickpunkt mehr festgelegt werden muss.

Halcon 20.11 soll nicht nur für Anwender, sondern auch für Entwickler Erleichterungen bringen: Mit einer neuen Sprachschnittstelle können Programmierer, die mit Python arbeiten, nun nahtlos auf das Operatoren-Set von Halcon zugreifen. Überdies hat die integrierte Entwicklungsumgebung H-Develop ein Facelift erhalten. So gibt es nun mehr Optionen zur individuellen Konfiguration wie etwa ein modernes Window-Docking-Konzept. Außerdem stehen für eine bessere visuelle Ergonomie nun Themes zur Verfügung, mit denen sich H-Develop an die persönlichen Präferenzen anpassen lässt.

Mit Deep Learning Kanten präzise erkennen

Halcon 20.11 beinhaltet laut MVTec eine neue und einzigartige Methode zum robusten Extrahieren von Kanten mit Hilfe von Deep Learning. Insbesondere für Szenarien, in denen in einem Bild eine Vielzahl von Kanten sichtbar sind, kann die Deep-Learning-basierte Kantenextraktion mit nur wenigen Bildern darauf trainiert werden, ausschließlich die gewünschten Kanten zuverlässig zu erkennen, was den Programmieraufwand für derartige Prozesse reduziert. Schon das vortrainierte Netz ist in der Lage, Kanten auch bei geringem Kontrast und hohem Rauschen robust zu erkennen. So lassen sich auch Kanten extrahieren, die mit herkömmlichen Kantenfiltern nicht identifiziert werden können. Darüber hinaus haben Anwender mit „Pruning für Deep Learning“ nun die Möglichkeit, ein vollständig trainiertes Deep-Learning-Netz nachträglich zu optimieren. So kann die Priorisierung der Parameter Geschwindigkeit, Speicherplatzbedarf und Genauigkeit nun gesteuert und das Netz dadurch exakt an die anwendungsspezifischen Anforderungen angepasst werden.

„Auch Nutzer unseres Deep Learning Tools dürfen gespannt sein“, verrät Christian Eckstein, Product Manager Deep Learning Tool bei MVTec. „Zeitnah zum Release von Halcon 20.11 wird es auch eine neue Version des MVTec Deep Learning Tools geben. Diese bietet Nutzern dann die Möglichkeit, ihr im Tool trainiertes Netz auch direkt zu evaluieren, wodurch wir nun erstmals den gesamten Deep-Learning-Workflow im Tool abdecken.“

(ID:46931724)