Künstliche Intelligenz Sind Small Language Models die bessere Wahl in der Fertigung?

Quelle: NTT Data 1 min Lesedauer

Anbieter zum Thema

Während LLMs durch ihre schiere Größe und breiten Einsatzmöglichkeiten beeindrucken, stoßen sie in produktionsnahen Szenarien oft an Grenzen. Kleine Sprachmodelle setzen genau hier an.

Standardlösungen auf Basis öffentlich trainierter Large Language Models (LLMs) bringen nur begrenzten Mehrwert. Kleinere Modelle bieten gleich mehrere Vorteile.(Bild: ©  Krot_Studio - stock.adobe.com)
Standardlösungen auf Basis öffentlich trainierter Large Language Models (LLMs) bringen nur begrenzten Mehrwert. Kleinere Modelle bieten gleich mehrere Vorteile.
(Bild: © Krot_Studio - stock.adobe.com)

NTT Data hat erläutert, weshalb Small Language Models (SLMs) in produktionsnahen Anwendungen häufig die sinnvollere Wahl sind als große KI-Modelle. Laut einer Mitteilung stoßen öffentlich trainierte LLMs in der Fertigung zunehmend an Grenzen, etwa bei Echtzeitanforderungen, beim lokalen Betrieb in OT-Umgebungen oder bei der wirtschaftlichen Skalierung.

Im Zentrum der Argumentation steht die Effizienz: SLMs mit 100 Millionen bis zehn Milliarden Parametern benötigen deutlich weniger Rechenleistung als klassische LLMs, lassen sich schneller trainieren und lokal betreiben. Gleichzeitig erreichen sie in vielen industrierelevanten Aufgaben – von Mustererkennung über Wartungsassistenz bis hin zur Fachsprachanalyse – eine vergleichbare oder sogar bessere Performance. Modelle wie Microsofts Phi-2 oder Phi-4-Mini zeigen, dass kompakte Architekturen durchaus Spitzenleistungen erbringen können.

Individuelle KI-Funktionen

Gerade für Produktionsbetriebe bietet dieser Ansatz handfeste Vorteile, heißt es weiter. SLMs lassen sich innerhalb weniger GPU-Stunden auf spezifische Fertigungsdaten feintunen und ermöglichen damit individuelle, differenzierende KI-Funktionen. Parametereffiziente Methoden wie Low-Rank Adaptation (LoRA) erleichtern das Nachschärfen einzelner Aufgabenfelder, ohne das Basismodell neu zu trainieren. Zudem reduziert der lokale Betrieb die Abhängigkeit von Cloud-Strukturen, senkt Energie- und Infrastrukturkosten und minimiert Sicherheitsrisiken.

Die technische Einstiegshürde bleibe dabei überschaubar. Viele SLMs basieren auf Open-Source-Frameworks und können auf handelsüblichen Servern oder Industrie-PCs laufen, so das Unternehmen. Moderne Runtimes wie Nvidia Dynamo orchestrieren mehrere kompakte Modelle parallel und sorgen für stabile Inferenz in OT-Umgebungen. Grenzen bestehen vor allem beim Kontextverständnis oder der kreativen Textgenerierung, weshalb hybride Architekturen, in denen SLMs und LLMs arbeitsteilig agieren, zunehmend zum Standard werden.

Laut NTT Data entstehen so modular aufgebaute KI-Agentensysteme, die sich flexibel erweitern lassen und durch reale Nutzungsdaten kontinuierlich besser werden. Entscheidend sei weniger die Größe eines Modells als dessen Qualität und Spezialisierung.

(ID:50637714)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung