Suchen

Sichere Prognosen in Minutenschnelle Statistische Methoden senken Berechnungsaufwand der Regelung in Datennetzen

| Autor / Redakteur: Achim Nötzold, Lutz Zacharias / Dipl. -Ing. Ines Stotz

Verkabeln kostet Geld. Der Trend geht daher auch für schnelle, zeitkritische Regelungsaufgaben in Richtung Feldbusse und Industrial-Ethernet. Dem Nutzen stehen hier jedoch auch Probleme gegenüber: So verschlechtern die unsicheren Zeitbedingungen im Netz die dynamischen Eigenschaften digitaler Regelungen in bislang unvorhersehbarer Weise. Jedoch wurde jetzt an der Westsächsische Hochschule Zwickau (FH) eine praktikable Methodik entwickelt, um die Regelgüte solcher Systeme sicher und aufwandsarm vorherzusagen – und den Zeitaufwand von sieben Stunden auf sieben Minuten zu reduzieren.

Firmen zum Thema

Die Regelgüte von Automatisierungssystemen lässt sich jetzt verlässlich und aufwandsarm vorhersagen.
Die Regelgüte von Automatisierungssystemen lässt sich jetzt verlässlich und aufwandsarm vorhersagen.
( Archiv: Vogel Business Media )

Um den Verkabelungs-Aufwand für den Datentransfer zu verringern, werden in vielen Branchen, beispielsweise bei automobilen Anwendungen, in der Luft- und Raumfahrt, aber auch in der Gebäudeleittechnik und industriellen Automation zunehmend Systeme mit serieller Datenübertragung – Feldbusse und Ethernet – eingesetzt. Verwendet werden dabei häufig zwei grundlegende Typen: Netze mit festgelegten, umlaufenden Bus-Zugriffen (Token) oder Verfahren mit wahlfreiem, möglichst sofortigem Zugriff (CSMA).

Zwei Verfahren mit unterschiedlichen Charakteristika

Bildergalerie

Token-Verfahren (z.B. Profibus, ASi) haben den Vorteil garantierter Signal-Laufzeiten, bei Einhaltung einer maximalen Bus-Grenzlast. Wegen des nötigen Übertragungsprotokoll-Aufwands arbeiten sie jedoch relativ langsam. CSMA-Verfahren (z.B. CAN, LIN) realisieren zwar einen schnellen Signalfluss, können aber konkrete Zeiten für die Informations-Zustellung nicht garantieren. Um diesen Nachteil zu kompensieren, bedarf es komplizierter, hard- und softwareintensiver Mischverfahren (z.B. FlexRay, MOST). Nur so lassen sich hier für wichtige Telegramme entsprechende Zeitfenster reservieren.

Sollen nun in verteilten Automatisierungs-Systemen bzw. dezentralen Steuerungen Komponenten mit variablen, d.h. zufällig auftretenden Verzögerungen integriert werden, lassen sich die Systemdynamik charakterisierende Gütekriterien, wie maximales Überschwingen oder Einschwingzeit von Regelkreisen, nicht mehr ohne weiteres zuverlässig voraussagen.

Fasst man die verwendeten Netz-Segmente als regelungstechnische Übertragungsglieder mit zufällig verteilten Totzeiten auf, unterliegen deren dynamische Kenngrößen statistischen Gesetzmäßigkeiten. Daraus folgt, dass deren vorgegebene Grenzwerte mit einer bestimmten Fehler-Wahrscheinlichkeit überschritten werden können. Gelingt es, diese bei der jeweiligen Anwendung auf die Größenordnung der Hardware-Ausfall-Wahrscheinlichkeit zu reduzieren, lassen sich die zu präferierenden Netz-Segmente mit unscharfen Verzögerungen einsetzen.

Zu viele Einzeltests nötig

Um hierüber gesicherte Aussagen zu erzielen, sind aber sehr viele Einzeltests nötig. Die Menge der erforderlichen Daten, um die Stichproben auszuwerten, richtet sich nach der geforderten Zuverlässigkeit für die zu treffenden Aussagen und der maximal zulässigen Ausfall-Wahrscheinlichkeit.

Soll beispielsweise mit 95-prozentiger Sicherheit ausgeschlossen werden, dass ein System während einer Million Betriebszyklen nicht mehr als einmal ausfällt – das entspricht einer Risikobegrenzung auf 10-6– wären dafür drei Millionen(!) Messungen bzw. Simulationen erforderlich. Selbst mit modernster Computertechnik ergeben sich hierfür enorm hohe Bearbeitungszeiten. Jede konstruktive Änderung des zu untersuchenden Systems erzwingt zudem einen neuen Durchlauf.

Konzentration auf das Wesentliche

Ziel muss daher sein, die Zahl der Experimente erheblich zu reduzieren, ohne dabei die Zuverlässigkeit der Aussagen zu mindern.

Deshalb werden die Testergebnisse nicht mehr in ihrer Gesamtheit ausgewertet, sondern die statistische Verteilung der Dynamik-Kenngrößen einschließlich ihrer freien Parameter bestimmt. Anschließend lässt sich so die zu erwartende Rest-Wahrscheinlichkeit für eine mögliche Grenzwert-Überschreitung der Kenngrößen ermitteln. Das führt schließlich zu einer skalierbaren Zuverlässigkeit der Aussage, und die Zahl der notwendigen Experimente bleibt stets beherrschbar.

Anwendungsbeispiel Kfz-Bordnetz

Das Applikationsbeispiel eines Kfz-Bordnetzes zur Informations-Übertragung macht dies deutlich: In einem Laboraufbau werden typische Buslasten eines Kraftfahrzeugs mit integriertem CAN-Bus (wie Beleuchtung, Überwachung, Sensoren und Aktoren des Motormanagements sowie ABS) simuliert und ausgewertet. Die Baudrate beträgt dabei 1 Mbaud und die mittlere Buslast sechs Prozent. Zudem setzt sich die für diese Prozess-Klasse ergebende Netzverzugszeit (NVZ) aus einem konstanten und einem exponentiell verteilten, mittels Dichtefunktion beschreibbaren Anteil zusammen. Das heißt, auch große NVZ sind möglich, die aber umso unwahrscheinlicher werden, je größer deren Dauer ist. Die mittlere NVZ hängt von den Parametern des Übertragungsverfahrens, insbesondere von der Baudrate, der Telegrammlänge und der Busauslastung ab.

Für Regelkreise ergeben sich in diesem Fall Zusammenhänge zwischen Eingangs- und Ausgangsgrößen, die eine analytische Berechnung der Verteilung des Ausgangssignals nicht mehr ermöglichen.

Nur noch drei Parameter

So führt die Reihenschaltung von solcherart verzögernden Netzsegmenten bei sprungförmigem Eingangssignal zu einer (diskreten) Poisson-Verteilung des Ausgangssignals. Wie umfangreiche Untersuchungen zeigen, führt die Kaskadierung einer sehr große Anzahl verzögernder Netzsegmente zu kontinuierlichen Gamma-Verteilungen.

Fasst man einen geschlossenen Regelkreis als eine sich permanent fortsetzende Reihenschaltung von Übertragungsgliedern auf – ein Signal zirkuliert beliebig lang innerhalb des geschlossenen Kreises – so entspricht dies dem Ansatz, und die Gamma-Verteilung stellt hierfür ein adäquates Beschreibungsmittel dar. Weitergehende Simulationen bestätigen diese Annahme. Die Gammaverteilung hat drei freie Parameter: Mittelwert, Streuung und Schiefe bzw. Form. Statt vieler Mess- bzw. Simulations-Werte müssen nun zur Beschreibung eines Gütekriteriums nur noch diese drei Größen bekannt sein.

Deren Anpassung erfolgt nach der Methode, die Summe der Fehlerquadrate für jeweils eine gegebene Regelkreis-Konfiguration zu minmieren. Dafür sind im Vergleich zu einer nicht statistischen Auswertung nur wenig Simulationen nötig. Um die Rest-Wahrscheinlichkeit in der Fehlersumme ausreichend zu bewerten, wird hierbei eine logarithmische Darstellung verwendet.

In der Praxis bestätigt

Das für die praktische Umsetzung entwickelte Testverfahren umfasst folgende Schritte:

? Abspeichern der Testergebnisse (z.B. Überschwingen, Regelzeit) in numerischen Feldern;

? Einteilung in Klassen, abhängig von der Zahl der Simulationen;

? Zusammenfassung unbesetzter oder schwach besetzter Klassen;

? iterative Bestimmung der freien Parameter der Verteilung aus logarithmischer Anpassung durch Minimierung der Fehler-Quadratsumme;

? Berechnung der Ausfall-Rest-Wahrscheinlichkeit;

? Aussage über Zuverlässigkeit des Ergebnisses mittels X2-Test.

Die in Abb. 2 dargestellte Kurvenschar aus 5000 Testläufen illustriert das unscharfe Anregel-Verhalten des in Abb. 1 dargestellten Systems und verdeutlicht die Streuung von Überschwingen und Anregelzeit infolge der zufälligen Verzögerungen im Regelkreis. Voraussetzung für die statistische Auswertung der Signal-Zeitverläufe in Abb. 2 ist die Einteilung der maximalen Überschwing-Weiten in Klassen (s. Stützstellen in Abb. 3). Danach kann diese diskrete Verteilung analytisch durch eine Gamma-Verteilung genähert werden (durchgehende Linie). Die mittels Integration der Gamma-Verteilung gefundene Wahrscheinlichkeit eines Überschwingen > 20 Prozent beträgt bei dem beschriebenen Testverfahren P20 = 1,1 × 10-5.

Von sieben Stunden auf sieben Minuten

Der hier benötigte Zeitaufwand von sieben Minuten würde sich für eine Auswertung von Einzelwerten ohne Klassifizierung und ohne Anwendung statistischer Methoden bei der gleichen Zuverlässigkeit der Aussage von 95 Prozent auf etwa sieben Stunden erhöhen. Bei einer kleineren maximal zulässigen Wahrscheinlichkeit von Ausreißern werden die Unterschiede im erforderlichen Zeitaufwand sogar noch drastischer.

Die Anwendung statistischer Methoden widerspiegelt also viele in der Industrie zu betrachtende Ausfallszenarien derart genau, dass sich die Berechnungs-Aufwendungen typischerweise um 95 bis 98 Prozent reduzieren lassen und avanciert damit zu einer verlässlichen Entscheidungshilfe, wenn innovative Automatisierungskonzepte implementiert werden sollen.

Beispiel: Kfz-Bordnetz: Nur 5000 Simulationsläufe statt 300 000

Verwendet wird ein Kfz-Informationsnetz in Verbindung mit einem Servo-Stellmotor, der in guter Approximation zunächst als PT2-Strecke mit T1 = 10 ms, T2 = 1 ms, KS = 1 aufgefasst werden kann. Als Regler dient ein quasikontinuierlicher PI-Regler mit TN = 10 ms, KR = 2,6 und Tastperiode 1 ms. Im geschlossenen Regelkreis befinden sich zwei verzögernde Netzsegmente mit einer konstanten NVZ von 55 ?s und einem Erwartungswert der variablen NVZ von 100 ?s. Das entspricht einer Bitrate von 1 MBaud sowie einer Busauslastung von sechs Prozent. Verfahrensbedingt kann die Zahl der erforderlichen Simulationsläufe von ursprünglich 300 000 auf lediglich 5000 begrenzt werden, wofür ein Mittelklasse-PC eine Rechenzeit von sieben Minuten benötigt.

Westsächsische Hochschule Zwickau (FH), Tel. +49(0)375 5361414

Achim Nötzold, Laboringenieur, Westsächsische Hochschule Zwickau (FH)

Lutz Zacharias, Professor für Regelungs- und Steuerungstechnik Westsächsische Hochschule Zwickau (FH)

(ID:188518)