Risiko KI Was Künstliche Intelligenz für die Maschinensicherheit bedeutet
Anbieter zum Thema
Neben vielen Chancen der Künstlichen Intelligenz gibt es auch warnende Stimmen: Wenn die KI versagt, könnten Menschenleben gefährdet werden. Was bedeutet das für die Maschinensicherheit?

Sie gilt als die wegweisende Zukunftstechnologie: die Künstliche Intelligenz (KI). Ihre Anwendungen wie Sprachassistenten oder Übersetzungsprogramme nutzen wir bereits heute wie selbstverständlich im Alltag, und auch die Industrie setzt zunehmend KI-Anwendungen beispielsweise für vorausschauende Wartung ein, von denen sie sich großes wirtschaftliches Potenzial verspricht. Und hierbei handelt es sich nur um die Vorboten zahlreicher gesellschaftlicher wie wirtschaftlicher Veränderungen, die der Einsatz von Künstlicher Intelligenz künftig mit sich bringen wird.
Risiko Künstliche Intelligenz
Während die Befürworter Künstlicher Intelligenz vor allem deren Chancen und Vorteile hervorheben, gibt es auch warnende Stimmen: Was ist mit den Risiken, wenn beispielsweise ein Roboter in der Fertigung versagt und mit einer falschen Bewegung das Leben eines neben ihm stehenden Arbeiters gefährdet? Oder wenn ein autonom fahrendes Fahrzeug eine rote Ampel überfährt und dadurch Fußgänger in eine lebensbedrohliche Situation bringt?
Dr. Daniel Schneider, Abteilungsleiter Safety Engineering am Fraunhofer-Institut für Experimentelles Software Engineering IESE, erklärt: „Künstliche Intelligenz, und Machine Learning im Besonderen, erweist sich zunehmend als wichtiger Enabler der Automatisierung, wobei die Gewährleistung der Sicherheit von Machine-Learning eine noch weitgehend ungelöste Herausforderung darstellt.“ Das Grundproblem liegt darin, dass etablierte Methoden und Standards zur Gewährleistung der Sicherheit stets von einem vollständigen Verständnis eines Systems und seiner Umgebung ausgehen. Diese Grundannahme ist bei Systemen mit KI-Anteilen nun nicht mehr gegeben.
Wie die Sicherheit nachweisen?
Damit stellt sich umgehend die Frage: In welcher Form kann ein Nachweis der funktionalen Sicherheit für ein solches System erbracht werden?
„Generell bedeutet ein Sicherheitsnachweis nicht, dass kein Schaden entstehen kann, sondern, dass das Risiko akzeptabel ist – wobei bezüglich des Maßes des akzeptablen Risikos teilweise auch noch Unklarheit herrscht“, sagt Schneider. Bei einem selbstfahrenden Fahrzeug stelle sich die Frage, welches Restrisiko akzeptiert werde. Ein sinnvoller Ansatzpunkt könnte sein, sicherzustellen, dass autonome Fahrzeuge deutlich weniger Unfälle als von Menschen gesteuerte Autos verursachen. Man dürfe jedoch nicht vergessen, dass auch ein schnell reagierendes automatisiertes System zum Beispiel je nach Geschwindigkeit einen gewissen Bremsweg brauche. „Daher wird es in jedem Fall ein Restrisiko geben, mit dem eine Gesellschaft leben muss“, erklärt der KI-Experte.
Wie KI-Anwendungen abgesichert werden können
Betrachtet man nun die grundlegenden Optionen zur Absicherung von Machine-Learning(ML)-Komponenten, kann man zwei unterschiedliche, aber durchaus komplementär nutzbare Ansätze unterscheiden. Einerseits kann man versuchen, das ML-Verhalten selbst zu analysieren und abzusichern, etwa durch Anwendung von Techniken aus der Explainable AI. „Hier ist jedoch aktuell noch viel Forschung nötig“, erklärt Schneider. Daher ist die zur Zeit aussichtsreichere Strategie, die Absicherung durch eine parallele Überwachung mithilfe konventioneller Software zu erreichen. Die Kunst besteht dabei darin, den Überwacher so zu entwickeln, dass er die Performanz des überwachten Systems möglichst nicht einschränkt.
Wie und ob dies gelingen kann, ist stark von der jeweiligen Anwendung und den Rahmenbedingungen abhängig. In jedem Fall kann die überwachende „konventionelle“ Software – im Gegensatz zu einer ML-Komponente – auch konventionell abgesichert und nachgewiesen werden, sodass ein Versagen der KI-Lösung ohne ernste Folgen bleibt.
(ID:46075781)