Bei Lötverbindungen auf Leiterplatten bedingt der gesetzlich vorgeschriebene Wechsel zu bleifreien Loten erhöhte Ausfallraten. Eine KI basierende Deep-Learning-Lösung führte jetzt bei Siemens Smart Infrastructure zu einer erheblich verbesserten Qualitätskontrolle.
Voll integrierte 100%-ige optische Qualitätskontrolle von Lötstellen mittels Deep Learning Verfahren auf einer Produktionsstraße von Rauchmeldern. Siemens Smart Infrastructure
(Bild: Siemens Smart Infrastructure)
Zum Einsatz bei der Qualitätskontrolle kommen dabei Systeme für die kameragestützte automatische Bildauswertung. Die bisher üblichen Verfahren stoßen allerdings noch an Grenzen. Bei der Festlegung der Prüfkriterien muss der Anwender einen schmalen Grat zwischen zu hohen internen oder zu hohen externen Fehlerraten beschreiten. Eine jetzt bei Siemens Smart Infrastructure installierte Lösung bindet deshalb eine auf Künstlicher Intelligenz (KI) basierende Deep-Learning-Lösung ein, was deutliche Verbesserungen ermöglichte.
Das Unternehmen stellt auf automatischen Anlagen Rauchmelder für den Brandschutz in zahlreichen Varianten und in mittleren bis großen Stückzahlen her. Die verwendeten Bauteile werden mithilfe von Bestückungsautomaten auf die Platine gesetzt und anschließend von oben verlötet. Das EU-weite Verbot bleihaltiger Lotlegierungen zwingt die Hersteller zur Verwendung bleifreier Lote, die jedoch schlechtere Löteigenschaften haben. Die Folge sind erhöhte Ausschuss- und Ausfallraten.
„Umso wichtiger sind zuverlässige automatische Qualitätskontrollsysteme“, sagt Lukas Vassalli, Entwickler bei der Compar AG in Pfäffikon (Schweiz). Meist handelt es sich um kameragestützte Bildverarbeitungs-Lösungen, die mithilfe geeigneter Softwarepakete aufgrund von Bildanalysen In-Ordnung/Nicht-In-Ordnung-(IO/NIO)-Einteilungen vornehmen. Ihre Trennschärfe stellte bisher jedoch nicht immer zufrieden. Vor allem beim Einsatz für kritische Sicherheitsfunktionen müssen die Prüfkriterien zur „sicheren“ Seite hin getrimmt werden, da Brandmelder zuverlässig sein müssen. Dies bedingt jedoch erhöhte Ausschussraten mit entsprechenden Kostennachteilen.
Um diese zu verringern, hat sich Compar zum Ziel gesetzt, bei der Bildanalyse zusätzlich Lösungen mit KI in Form selbstlernender neuronaler Netze einzusetzen. Zudem geht es darum, solche Aufgaben in übergeordnete IT-Strukturen im Rahmen von Industrie 4.0-Konzepten einzubinden.
KI-Einbindung führt zu Deep Learning
„Bildverarbeitungs-Spezialist Cognex hat für solche Aufgabenstellungen unter der Bezeichnung Vidi fertige Softwarepakete in Form von Plug-In-Modulen entwickelt“, berichtet Vassalli. Als hardwareseitige Voraussetzung sollte zumindest in der Trainingsphase ein leistungsfähiger Bildprozessor (Graphics Processing Unit, GPU) auf dem eingesetzten Rechner vorhanden sein.
Wesentliche Komponente der Softwarebibliothek ist ein neuronales Netz, das bereits teilweise vorstrukturiert ist, so dass der Anwender schnell und einfach mit dem Einlernen beginnen kann. Dies ist vor dem ersten Einsatz erforderlich und erfolgt, indem dem Netz eine gewisse Zahl von Bildern als „Trainingsmaterial“ vorgegeben wird. Anschließend kann es neue Bilder selbständig nach den gewünschten Kriterien beurteilen. Der beim Training entstandene Wissensschatz wird im Laufe des Einsatzes ständig erweitert und verfeinert, weshalb auch der Begriff Deep Learning geprägt wurde.
Bei der hier beschriebenen Anwendung geht es neben der Beurteilung von Lötverbindungen auch um das Auffinden von Bestückungsfehlern.
Analyse im Takt der Produktionslinie
„Das Gesamtsystem besteht aus der Kamera und einer für die Anwendung ausgelegten Beleuchtungsstation, welche die Platinen aufnimmt, sowie einem Industrie-PC mit unserem Visionexpert-Programm“, zählt Vassalli auf. Ergänzt wird es durch das Vidi-Paket, das als Black-Box arbeitet. Es analysiert die übergebenen Bilder mithilfe seines neuronalen Netzes und liefert entsprechende Beurteilungen zurück. Dies erfolgt verzögerungsfrei innerhalb von Millisekunden im Takt der Produktionslinie.
Vor dem Start wurde das System von Compar mithilfe von Bildern zur Verfügung gestellter Musterteile vorkonfiguriert. Im laufenden Einsatz kann das System vom Anwender selbst je nach Bedarf mit neuen Produkten trainiert oder mit Varianten bereits vorhandener Produkte nachtrainiert werden. Für solche Trainingsphasen sind dank der hohen Rechnerleistung lediglich wenige Minuten erforderlich. Beim Training kann man das System entweder direkt mit Fotos „füttern“ oder im Supervisor-Modus Fehlstellen vorab durch Farbmarkierungen hervorheben.
Nach kurzer Schulung ist der Anwender imstande, solche Aufgaben selbst durchzuführen. Dies ist eine wesentliche Voraussetzung für den Erfolg des Projekts. Im vorliegenden Fall genügten je etwa 50 Bilder von Gut- sowie Schlechtteilen.
Verschiedene Ansätze für das Training
„Die Vidi-Software besteht aus drei Modulen (Red, Green und Blue), von denen im vorliegenden Fall die Module Red und Blue zum Einsatz kommen“, verrät Vassalli. Das als „Locator“ bezeichnete Blue-Modul kontrolliert die Leiterplatinen auf korrekte Bestückung. Es identifiziert Lötstellen und Bauteilpositionen sowie Aufdrucke. Dabei lassen sich Varianzen vorgeben. Anschließend übernimmt dann Vidi Red die Klassifikation in IO- bzw. NIO-Teile. Beim Training sind verschiedene Ansätze wählbar, z. B. indem man statt der beiden Kategorien IO/-NIO ausschließlich IO-Teile vorgibt. In diesem Falle wird die KI alles, was nicht eindeutig als IO erkennbar ist, automatisch als NIO klassifizieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Die Trennschärfe als Zuverlässigkeitsmerkmal
„Eine wichtige Eigenschaft der Vidi-Analyse ist die numerische Bewertung der Klassifikation des jeweiligen Ergebnisses“, führt Lukas Vassalli weiter aus. Das System klassifiziert begutachtete Bilder zwar grundsätzlich nach den Kriterien „IO“ bzw. „NIO“, gibt aber hierzu stets einen prozentualen Vertrauenswert aus. Dieser gibt an, zu welchem Prozentsatz die Software sich in ihrem Urteil sicher ist. Die Skala geht dabei von 0 (= 100 % IO) bis zu 1 (= 0 % IO bzw. 100 % NIO).
Die Häufigkeitsverteilung dieser Einstufungen wird statistisch in Form von Diagrammen mit z. B. grüner Farbe für IO- und roter Farbe für NIO-Ergebnisse ausgegeben. Sie haben die Form von zwei Balkendiagrammen in grüner bzw. roter Farbe, die sich teilweise überlappen können. Eine einfachere Darstellung ergibt sich aus der Auftragung der kumulierten und auf Eins normierten Streubereiche. Diese können sich je nach Aufgabe und Bewertungskriterien entweder teilweise überlappen oder zwei deutlich getrennte Gruppen bilden.
Wenn das Training gut gelaufen ist, gibt es zwischen den kumulierten Häufigkeitsbereichen keine Überlappung. Dies belegt dann eine gute Trennschärfe des Verfahrens. Ist dies nicht der Fall, so landet man im Entscheidungsbereich zwischen „falsch-positiven“ und „falsch-negativen“ Einstufungen. In solchen Fällen spielt die optimale Festlegung des sogenannten Treshhold-Wertes eine wichtige Rolle. Platziert man diesen mehr zur sicheren Seite hin, so minimiert man beispielsweise das Ausfallrisiko von sicherheitsrelevanten Komponenten beim Anwender. Mit der umgekehrten Strategie lässt sich dagegen ggf. das interne Ausschussgeschehen absenken.
Zusammenspiel mit der Software
„Besonders interessant wird für die Kunden die Verzahnung der beschriebenen Vidi-Möglichkeiten mit der von uns entwickelten Bildverarbeitungssoftware Visionexpert“, bilanziert Vassalli. Das Compar-Programm übernimmt als Hauptkomponente zunächst das externe Hardware-Handling, d. h. die Anbindung der zahlreichen möglichen Kameramodelle sowie sonstiger Peripherie. Weitere Aufgabe ist das Bilddaten-Management sowie die Weitergabe von zu analysierenden Bilddaten an Vidi. Die zurückgelieferten Ergebnisse werden intern verwendet, visualisiert und schließlich in die Entscheidungsfindung eingebunden. Trotz aller Automatik behält der Mensch durch Vorgabe von Prüfkriterien und Entscheidungsvorgaben wie z. B. dem Treshhold-Level stets die Entscheidungsgewalt.
Zur Analyse und Beurteilung eines Prüflings werden neben den Ergebnissen der Vidi-Untersuchung auch die Visionexpert-eigenen Fähigkeiten herangezogen. Diese Software kann im Unterschied zum Vidi-Plug-In beispielsweise Abmessungen bis herab in dem µm-Bereich mit hoher Genauigkeit messen und anhand der Ergebnisse Entscheidungen treffen. Schließlich übernimmt Visionexpert auch noch die Kommunikation mit der übergeordneten IT des Unternehmens. Für Compar, das seit Jahrzehnten Lösungen zur visuellen Qualitätskontrolle entwickelt, ist die Einbindung des KI-basierten Tools ein wichtiger Schritt zur weiteren Verbesserung des Angebots, so Lukas Vassalli abschließend.