Whitepaper Chancen der generativen KI souverän nutzen

Quelle: Pressemitteilung 4 min Lesedauer

Anbieter zum Thema

Große KI-Sprachmodelle können die Innovationskraft der deutschen Wirtschaft enorm steigern. Allerdings stammen die fortgeschrittensten generativen KI-Modelle aus den USA und China – und erfüllen selten unsere Anforderungen. Ein aktuelles Whitepaper verdeutlicht Chancen und Herausforderungen.

Das wirtschaftliche Potenzial generativer KI-Sprachmodelle ist enorm. Ein neues Whitepaper der Plattform Lernende Systeme zeigt, unter welchen Bedingungen die deutsche Wirtschaft die Chancen der Modelle nutzen kann.(Bild:  frei lizenziert /  Pixabay)
Das wirtschaftliche Potenzial generativer KI-Sprachmodelle ist enorm. Ein neues Whitepaper der Plattform Lernende Systeme zeigt, unter welchen Bedingungen die deutsche Wirtschaft die Chancen der Modelle nutzen kann.
(Bild: frei lizenziert / Pixabay)

Das wirtschaftliche Potenzial generativer KI-Sprachmodelle ist enorm. Die Technologie verspricht beispielsweise einen verbesserten Zugang zum Unternehmenswissen für Beschäftigte sowie die Automatisierung von repetitiven und fehleranfälligen Prozessen. „Aus der Perspektive der KI-Forschung stellen große Sprachmodelle einen bedeutenden technologischen Durchbruch dar. Sie erschließen die Intelligenz der Sprache. Sie ermöglichen Lösungen, die vorher jenseits der technologischen Möglichkeiten waren, und heute bereits als selbstverständlich erscheinen“, sagt Volker Tresp, Professor für maschinelles Lernen der Ludwig-Maximilian-Universität München und Leiter der Arbeitsgruppe Technologische Wegbereiter und Data Science der Plattform Lernende Systeme.

Bildergalerie

Potenzial und Herausforderungen für Unternehmen

Ein wichtiger Grund für die vielfältigen Anwendungsmöglichkeiten der Sprachmodelle: Die aufwändig trainierten Modelle sind wiederverwendbar und lassen sich an branchen- und unternehmensspezifische Anforderungen anpassen. Das ressourcenintensive Trainieren eines eigenen KI-Modells kann entfallen. Bei vielen Anwendungen müssen die KI-Modelle jedoch auf sensible Daten zugreifen können, beim Einsatz in Unternehmen auf Geschäftsdaten etwa. Nur wenige Unternehmen wären bereit, solche Daten an externe Modellanbieter herauszugeben, heißt es im Whitepaper.

Generative Modelle im Kommen

Schon heute beginnen immer mehr Unternehmen, generative Modelle in ihre Produkte und Dienstleistungen zu integrieren, um das Potenzial dieser Technologie zu nutzen: So setzt Microsoft Chat-GPT bereits für den Suchdienst Bing ein und Google nutzt das Modell Palm2 für verschiedene Anwendungen wie Docs, Slides und Sheets. Zudem kooperieren Konzerne wie ABB und Mercedes mit Microsoft, um generative KI in ihre Produkte zu integrieren, und Bosch arbeitet mit dem deutschen Start-up Aleph Alpha an einem eigenen KI-Modell, um das Entwicklungsteam zu entlasten.

Ein starkes Open Source-Angebot made in Germany kann neuen Wettbewerb schaffen. Dafür sind nur 20 Terabyte, also 10 Laptop-Festplatten, deutschsprachiger Daten nötig.

Alexander Löser

„Viele Unternehmen wollen derzeit Sprachmodelle einsetzen. Leider gibt es kaum Angebote leistungsstarker deutschsprachiger Modelle. Ein starkes Open Source-Angebot made in Germany kann neuen Wettbewerb schaffen. Dafür sind nur 20 Terabyte, also 10 Laptop-Festplatten, deutschsprachiger Daten nötig. Unabdingbare Voraussetzung ist daher ein Open Source-Projekt, das diese Daten in hoher Qualität kommerziell nutzbar macht und lizenzfrei anbietet, sodass eine breite Community eine sichere KI gestalten kann“, sagt Alexander Löser, Gründer und Sprecher des Forschungszentrums Data Science an der Berliner Hochschule für Technik und Mitglied der Plattform Lernende Systeme.

Rechtssichere, deutschsprachige KI-Modelle nötig

Für die Unternehmen sei eine rechtssichere Nutzung großer KI-Modelle wichtig. Das Modell sollte im Sinne europäischer Werte und Regeln entwickelt werden. Es sollte zudem transparent sein, welche Daten für das Training der Modelle genutzt wurden. Prominente Modelle aus USA und China erfüllen diese Anforderungen überwiegend nicht. Zudem verfügen außereuropäische KI-Modelle lediglich über einen vergleichsweise geringen Anteil deutscher Textdaten im Trainingsdatensatz, was zu Fehlern in den generierten deutschen Texten führen kann.

Angesichts des zunehmenden Einflusses außereuropäischer Modelle bestehe ein Bedarf, Alternativen zu schaffen, um die Innovationskraft und Wettbewerbsfähigkeit in Deutschland und Europa voranzutreiben, betonen die Autoren des Whitepapers. Im Sinne der digitalen Souveränität würden Sprachmodelle für die deutsche Sprache und nach unserem Wertesysteme benötigt. Grundvoraussetzung für das Training großer Sprachmodelle seien entsprechend umfangreiche und kuratierte Trainingsdatensätze.

Eine weitere Voraussetzung für das Training und die Anwendung großer KI-Sprachmodelle in Deutschland ist eine leistungsfähige Recheninfrastruktur. Diese sollte mit den steigenden Anforderungen an die nötige Rechenleistung für KI-Modelle mitwachsen, empfehlen die Autoren. Zudem sollten eine die KI-Community gestärkt und Talente in Forschung und Industrie mit entsprechendem KI-Wissen und Domänen-Know-how gefördert werden.

Das Whitepaper hier kostenfrei downloaden.

Was ist eigentlich generative KI?

Generative künstliche Intelligenz ist eine Art von künstlicher Intelligenz, welche verschiedene Arten von Inhalten generieren kann. KI-Systeme wie Chat-GPT basieren auf generativen Modellen, häufig sogenannten Large Language Models (LLMs), die ausgehend von den Daten, mit denen sie trainiert wurden, neue Inhalte erzeugen können. Ein LLM wie GPT-4 verfügt nach dem Training über statistische Informationen über die zugrundeliegenden Daten – in diesem Fall natürliche Sprache.

Ausgehend von diesem Wissen kann das Modell Texte vervollständigen (sogenannte Text-to-Text-Modelle). Ein LLM „weiß“, dass der Satz „Der Himmel ist …“ wahrscheinlicher mit „blau“ als mit „gelb“ endet. Aufgrund der extrem großen Masse an Trainingsdaten führt diese im Kern sehr reduzierte Fähigkeit dazu, dass Sprachmodelle auch komplexe Aufgaben erstaunlich kompetent lösen können. Dabei ist es wichtig zu beachten, dass Sprachmodelle keine (expliziten) Wissensmodelle sind, sondern nur Texte probabilistisch ergänzen. Wenngleich ein Sprachmodell viele nicht-sprachliche Informationen „gelernt“ hat, ist es darauf optimiert, einen Text sprachlich korrekt, nicht aber zwingend faktentreu zu vervollständigen.

In der Praxis werden solche Modelle einem weiteren Trainingsschritt, dem sogenannten Alignment unterzogen. In diesem Trainingsschritt geht es darum, ein LLM auf bestimmte Aufgaben, z. B. dem Befolgen von Anweisungen, als auch hinsichtlich bestimmter Werte und Normen zu trainieren. Wenn Sie beispielsweise ChatGPT nutzen, interagieren Sie mit generativen Modellen, die darauf trainiert (aligned) sind, Dialoge zu führen und bestimmte Themen, die als problematisch wahrgenommen werden, nicht zu bearbeiten. Quelle: Uni Köln

(ID:49828859)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung