Whitepaper Europäisches Ökosystem für die Entwicklung großer KI-Sprachmodelle von Nöten

Quelle: Pressemitteilung Acatech Lesedauer: 1 min

Anbieter zum Thema

Große Sprachmodelle wie ChatGPT versprechen mächtige KI-Lösungen für Wirtschaft und Gesellschaft. Ihre Ergebnisse sind jedoch nicht immer nachvollziehbar, oftmals fehlerhaft oder mit Vorurteilen behaftet. Ein aktuelles Whitepaper der Plattform Lernende Systeme benennt die wichtigsten Forschungsbedarfe und Handlungsoptionen.

„Wenn wir Sprachmodelle für Anwendungen in und aus Europa nutzen wollen, brauchen wir europäische Sprachmodelle, die die hiesigen Sprachen beherrschen, die Bedürfnisse unserer Unternehmen und ethischen Anforderungen unserer Gesellschaft berücksichtigen“, sagt Volker Tresp, Professor für Maschinelles Lernen an der Ludwig-Maximilians-Universität München und Leiter der Arbeitsgruppe Technologische Wegbereiter und Data Science der Plattform Lernende Systeme.
„Wenn wir Sprachmodelle für Anwendungen in und aus Europa nutzen wollen, brauchen wir europäische Sprachmodelle, die die hiesigen Sprachen beherrschen, die Bedürfnisse unserer Unternehmen und ethischen Anforderungen unserer Gesellschaft berücksichtigen“, sagt Volker Tresp, Professor für Maschinelles Lernen an der Ludwig-Maximilians-Universität München und Leiter der Arbeitsgruppe Technologische Wegbereiter und Data Science der Plattform Lernende Systeme.
(Bild: Plattform Lernende Systeme)

Sprachmodelle sind eine Schlüsseltechnologie der Künstlichen Intelligenz (KI). Sie erkennen, produzieren, übersetzen und verarbeiten Sprache und sind Kern vielfältiger Anwendungen. Sie können etwa beim Programmieren oder im Kundenservice unterstützen und Kommunikation sowie Wissensverarbeitung in Unternehmen effizienter gestalten. Derzeit wird dieses dynamische Forschungsfeld stark durch außereuropäische Akteure und große Technologieunternehmen geprägt. Obwohl deutsche Forscher an der Entwicklung großer Sprachmodelle beteiligt sind, droht Deutschland den Anschluss zu verlieren.

Aktuell gibt es nur wenige einsprachige, sogenannte monolinguale Modelle, die auf ausschließlich deutschen Textdaten beruhen. Auch Modelle, die domänen-spezifische Sprache sensibler Anwendungsbereiche wie Medizin und Justiz berücksichtigen, sind nicht verbreitet. Viele bedeutende, mehrsprachige Modelle wie GPT-4 sind hingegen für die öffentliche Forschung meist nicht offen zugänglich.

Die Experten der Plattform Lernende Systeme sehen die Forschung in Deutschland in einer guten Ausgangsposition, um die technischen Herausforderungen der KI-Technologie anzugehen, sie im Sinne europäischer Werte zu entwickeln und so ihre Potenziale für Deutschland und Europa auszuschöpfen. Voraussetzung sei ein europäisches Ökosystem für die Entwicklung großer Sprachmodelle sowie eine anwendungsnahe Forschung, die den Transfer in die industrielle Praxis erleichtert. Das aktuelle Whitepaper „Große Sprachmodelle – Grundlagen, Potenziale und Herausforderungen für die Forschung“ benennt die dringlichsten Forschungsbedarfe und Handlungsoptionen.

Zum kostenfreien Download des Whitepapers

(ID:49530195)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung