Suchen

Künstliche Intelligenz

KI-Ethik: Wer korrigiert einen diskriminierenden Algorithmus?

| Autor/ Redakteur: Markus Dohm* / Sariana Kunze

Was passiert, wenn sich künstliche Intelligenz (KI) beim Recruiting diskriminierend verhält, die KI im Selbstlernprozess bestimmten Nutzergruppen Vorteile vorenthält, sie falsch berät oder Folgeschäden aus unethischem KI-Verhalten entstehen? Alles Fragen, die noch weitgehend unterbelichtet sind. Ist perspektivisch überhaupt KI ohne menschliche Intelligenz möglich?

Firmen zum Thema

Beim Thema KI werden ethische Fragen, die durchaus ihre Berechtigung haben, derzeit nur unzureichend behandelt.
Beim Thema KI werden ethische Fragen, die durchaus ihre Berechtigung haben, derzeit nur unzureichend behandelt.
(Bild: ©bsd555 – stock.adobe.com)

Nur zwölf Prozent der deutschen Industrieunternehmen nutzen bereits heute künstliche Intelligenz (KI) im Zusammenhang mit Industrie 4.0, dies ergab eine Befragung des Branchenverbandes Bitkom von 555 Unternehmen mit über 100 Mitarbeitern auf der diesjährigen Hannover Messe. Obwohl der tatsächliche KI-Einsatz vergleichsweise gering ist, sind die Erwartungen an KI so groß, dass Experten mit einem exponentiellen Zuwachs rechnen. So meint McKinsey, dass bis 2030 rund 70 Prozent der Industrieunternehmen KI-Anwendungen einsetzen werden. Die Unternehmensberatung vergleicht die KI-Technologie sogar mit der Einführung der Dampfmaschine im 18. Jahrhundert. Während die KI-Vision eine gesteigerte Produktivität und planbare Instandhaltung skizziert, bleiben ethische Fragen bislang eher unbeantwortet. Ist somit KI überhaupt ohne menschliche Intelligenz möglich? Industrieunternehmen erwarten, ihre Produktivität zu steigern, vorausschauende Wartung und Instandhaltung zu verbessern sowie ihre Produktions- und Fertigungsprozesse zu optimieren. Die Befragten der Bitkom-Studie gaben zudem an, dass sie 2019 rund fünf Prozent ihres Umsatzes in die Digitalisierung investieren wollen.

Wenn KI Problemlösungen finden muss

Die Hoffnungen richten sich auf die Realisierung von Smart Factories, in denen autonome Roboter Hand in Hand mit Menschen arbeiten, dabei niemals müde werden und sogar die Fehler ihrer menschlichen Kollegen rechtzeitig erkennen und für Korrekturen sorgen. Wie im Auto von Morgen soll KI in Robotern zusammen mit einer Unzahl von Sensoren und Aktoren für eine autonome Aktion und Interaktion zwischen Maschinen und zwischen Menschen und Maschinen sorgen. Um dieses Ziel zu erreichen, müssen solche Systeme in Echtzeit große Datenmengen verarbeiten, Muster erkennen, Handlungsoptionen ableiten und umsetzen. Sie müssen also ähnlich wie KI heute schon in Wissenschaft, Medizin, Marketing zu vorgegebenen, vorgefundenen oder gerade entstehenden Problemen Lösungen finden. Die aktuell verfügbaren KI-Anwendungen sind trotz Machine Learning noch nicht in der Lage, ihren durch den Algorithmus vorgegebenen Weg zu verlassen. Eine KI, die Experten für die Tätigkeit eines Roboters in einer Fertigungslinie programmiert haben, ist nicht fähig, einfach einmal in einer anderen Fertigungslinie zu arbeiten. Wissenschaftler bezeichnen dies als schwache KI – und träumen von einer starken KI, die auch andere Aufgaben übernehmen könnte.

Starke KI: Wenn ein Algorithmus entscheidet

Noch ist es nicht gelungen, eine KI zu programmieren, die die intellektuellen Fähigkeiten des Menschen auch nur annähernd simulieren kann. Eine starke KI müsste in die Lage versetzt werden, logisch zu denken, Entscheidungen tatsächlich wie ein Mensch zu fällen, also abzuwägen – beispielsweise zwischen zwei gleich schlechten Alternativen. Sie müsste sich planvoll neue Wissensgebiete erschließen und sich systematisch selbst anlernen. Vor allem aber müsste sie in natürlicher Sprache selbständig Ideen formulieren können und alle ihre Kompetenzen auch in ein Wertesystem einordnen und einem höheren oder ferneren Ziel unterordnen können. Kurzum: Sie müsste nach ethischen, moralischen und sozialen Kategorien ihr Verhalten und ihre Entscheidungen verantwortungsvoll selbst steuern. Das bedeutet: Ohne den Faktor Mensch wird es bei aller Dynamik der technologischen Entwicklung in der digitalen Transformation auf absehbare Zeit nicht gehen.

Wie entscheidet eine KI und wer korrigiert bei Irrtümern?

Bereits bei heutigen Anwendungen mit schwacher KI stellen sich ethische Fragen. Was passiert, wenn eine KI durch Machine Learning diskriminierende Entscheidungen fällt? Bei Finanzdienstleistern ist KI schon im Einsatz, sogar schon länger, als es Chatbots gibt. Mit der „falschen Adresse“ oder einem fehlerhaften Schufa-Eintrag kann es passieren, dass eine Versicherung oder ein Kredit verweigert wird. Und wie soll sich ein autonomer und KI-basierter Roboter in einer Smart Factory verhalten, wenn er vor zwei gleich schlechte Alternativen gestellt wird, wo in beiden Fällen ein menschlicher Kollege verletzt werden würde? Mit solchen Fragen beschäftigte sich kürzlich ein Expertengremium der EU, das Ende 2018 seine ethischen Leitlinien zur Diskussion stellte und im April seine finale Version veröffentlichte. Bis Juni 2019 erarbeitete das Gremium eine Handlungsempfehlung für die EU. Nach allem, was bisher bekannt ist, greifen diese Leitlinien nach Expertenmeinung aber nicht weit genug. Sie beschreiben einen Weg, „den größtmöglichen Nutzen aus der KI zu erzielen und gleichzeitig die geringstmöglichen Risiken einzugehen. Um sicherzugehen, dass wir auf dem richtigen Weg bleiben, brauchen wir einen auf den Menschen ausgerichteten (menschenzentrierten) Ansatz für die KI …“, so die Verlautbarung des Gremiums. Die Experten haben auch eine Checkliste mit Fragen für Anbieter von KI entwickelt, wie sie ihre Systeme sicher betreiben können. Leider fehlen laut dem TÜV Rheinland Empfehlungen an die EU-Kommission, welche Mindestanforderungen und Sicherheitsauflagen sie den KI-Betreibern auferlegen sollten, damit der Mensch als Gestalter und Nutznießer der digitalen Transformation wirklich im Fokus bleibt. Denn eines ist klar: Eine wirtschaftlich erfolgreiche KI werden Betreiber nicht ändern, nur weil sie ein wenig diskriminierend agiert.

Nach Meinung von TÜV Rheinland müssen die EU und internationale Institutionen wie die UN klare Regeln aufstellen und anordnen, dass externe Institutionen die Einhaltung regelmäßig überprüfen dürfen. Eine notwendige Regel wäre beispielsweise, dass immer dann, wenn eine KI mit einem Menschen interagiert, diese als solche ausgewiesen wird und der menschliche Kollege beispielsweise durch einen Notausschalter eingreifen kann. Oder im Falle, dass eine KI Entscheidungsbefugnisse erhält, muss der Mensch das Recht erhalten, eine natürliche Person wie beispielsweise den Betriebsrat oder eine andere verantwortliche Stelle im Unternehmen mit der Überprüfung einer KI-Entscheidung zu beauftragen. Darüber hinaus müssen die Betreiber bei einer KI mit Machine Learning verpflichtet sein, ihre sich selbständig umschreibenden Algorithmen durch Testläufe zu überwachen.

Klare Regeln für Umgang mit KI

Bei einem KI-basierten Roboter sollten die Unternehmen schon aus Gründen der Betriebssicherheit ihre Algorithmen regelmäßig einer Prüfung unterziehen. Und weil es Menschen sind, die KI-Algorithmen schreiben, sollten diese durch Weiterbildung ihre Kompetenzen als Fachleute regelmäßig vertiefen müssen. Wie früher bei der Dampfmaschine könnte es zu verheerenden Unfällen kommen. Denn erst die regelmäßige Überprüfung durch den Vorläufer von TÜV Rheinland, dem früheren Dampfkesselüberwachungsverein DÜV, hat dazu geführt, dass technische Großanlagen, Fahrzeuge und Aufzüge bis hin zu Kraftwerken zu sicheren Einrichtungen wurden. Ohne Überwachung durch unabhängige Dritte und lebenslange Weiterqualifizierung der menschlichen Fachkräfte birgt auch der Einsatz von KI gewisse Risiken.

Beim Thema KI werden ethische Fragen, die durchaus ihre Berechtigung haben, derzeit nur unzureichend behandelt.

* Markus Dohm, Leiter des Geschäftsbereichs Academy & Life Care, TÜV Rheinland

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46154079)