5 Experten zum Thema Künstliche Intelligenz

Nachgefragt: Wo bleibt die Intelligenz in der Industrie?

| Autor: Sariana Kunze

Welche Risiken sehen Sie beim Einsatz von Künstlicher Intelligenz?

Johannes Kalhoff: Die Diskussion über Technologien und Trends ist vielschichtig. Neben ihrer konkreten Verwendung, dem eigentlichen Nutzen sowie weiterführenden Potenzialen werden ebenfalls Einsatzrisiken erörtert. Im Bereich der KI wird gerne ein Zeitpunkt angegeben, ab dem die Maschinen dem Menschen überlegen sind. Die Bandbreite der Antworten ist ebenso groß wie die erwarteten Folgen. Als sicher gilt schon heute, dass die KI in naher Zukunft sich wiederholende und auch komplexe Aufgaben – wie die Zusammenarbeit von Mensch und Roboter, autonomes Fahren oder Übersetzungstätigkeiten – bewältigen wird. Dies kann als Gefahr angesehen werden, aber zugleich Chance für neue Tätigkeitsfelder oder Geschäftsmodelle sein.

Benedikt Rauscher: Das Thema Künstliche Intelligenz ist ja nicht neu, es hat durch Industrie 4.0 und durch leistungsfähigere Hardware zusätzlichen Schub bekommen. Es besteht inzwischen die Gefahr, dass KI als „universaler Problemlöser“ auch auf Aufgaben angesetzt wird, für welche die Technologie keine nennenswerten Vorteile bringt.

Thorsten Schröer: Nicht, wenn wir verantwortungsvoll damit umgehen: Wir brauchen einen gemeinsamen Verhaltenskodex, wie wir mit den Daten arbeiten. Die Stichworte lauten Sensibilisierung, Wertevermittlung, Schulbildung, Ausbildung von Lehrern, Fortbildung und Bewusstsein schaffen für den verantwortungsvollen Umgang mit Daten. Daher haben wir uns als IBM auf drei ethische Grundsätze für die Entwicklung von künstlicher Intelligenz verpflichtet: Unterstützung des Menschen: KI-basierte Systeme wie IBM Watson werden entwickelt, um Menschen zu helfen, ihre täglichen Aufgaben besser zu bewältigen und nicht, um den Menschen zu ersetzen. Transparenz: Um Vertrauen in die Empfehlungen der KI zu haben, muss transparent sein, wie und mit welchen Daten sie arbeitet, wie sie trainiert wird und wie sie zu ihren Entscheidungen kommt. Skills: KI-Systeme müssen gemeinsam mit denjenigen Menschen entwickelt werden, die in ihren Branchen und Tätigkeiten jahrzehntelange Erfahrungen gesammelt haben und die von eben diesen KI-Systemen zukünftig auch profitieren sollen. Sie müssen zudem lernen, mit ihnen richtig umzugehen.

Rahman Jamal: Das Risiko, das mit KI einhergeht, ist der Kontrollverlust darüber, wie es zu bestimmten Entscheidungen kommt. Simples Beispiel: Wird Deep Learning etwa zum Korrigieren von Aufsätzen genutzt, lassen sich meist sehr gute Ergebnisse erzielen, die annähernd der menschlichen Leistung entsprechen. Man weiß allerdings nicht, wie es zu dieser Bewertung kam. Zwar wäre es möglich, mathematisch zu ermitteln, welche Knoten des komplexen neuronalen Netzes aktiviert wurden. Was aber die genaue Aufgabe der Neuronen war und vor allem, wie die einzelnen Neuronenschichten kollektiv handelten, erfahren wir nicht. Nun mag es vielleicht nicht ganz so tragisch sein, nicht zu wissen, warum ein Aufsatz wie bewertet wurde. Auch wenn Deep Learning etwa bei Amazon nicht funktioniert und dem Kunden beim Kauf eines Produkts falsche ergänzende Artikel vorgeschlagen werden, ist es eher weniger dramatisch. Anders aber z.B. bei der Kreditvergabe: Der Kunde hat durchaus ein Recht darauf zu erfahren, warum sein Antrag abgelehnt wird. Ferner stimmen die Prognosen heutiger Algorithmen Kritikern zufolge nur zu 90%, da eine Trefferquote von 100% schlicht nicht möglich ist. Auf gut Deutsch: 10% der Antragssteller wird aufgrund eines Systemfehlers kein Kredit gewährt. Dies kann durchaus existenzbedrohend sein. Noch schlimmer ist eine Fehlentscheidung aber bei Anwendungen wie ADAS-Systemen, denn da geht es um die körperliche Unversehrtheit. Trefferquoten von 90% sind hier schlichtweg inakzeptabel.

Jürgen Wirtgen: KI ist für alle Industrien und Individuen relevant und ermöglicht es auf eine Weise und in einer Schnelligkeit Datenmengen zu analysieren, zu interpretieren, Muster zu erkennen und Entscheidungsgrundlagen zu erstellen, auf die es Menschen ohne die Hilfe von Technologie nicht könnten. Wir sind uns gleichzeitig bewusst, dass die Vorteile – und die schnellen Veränderungen, die damit einhergehen – Fragen zur Ethik, Moral, Datenschutz und Sicherheit aufwerfen. Ich sehe weniger abstrakte Herausforderungen, sondern mehr konkrete Aufgaben, die wir beim Design intelligenter Maschinen zu lösen haben. KI ist ja nichts, was uns passiert, sondern etwas, das wir schaffen. Wir bei Microsoft haben ethische Prinzipien formuliert, die dabei beachtet werden müssen. Es braucht eine gemeinschaftliche Diskussion zwischen Unternehmen, Politik und Gesellschaft, um sicherzustellen, dass wir alle von den Vorteilen dieser Technologien bestmöglich profitieren, ohne einzelne Industrien, Gruppen oder Individuen zurücklassen.

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45163934 / Datennetze)