Firmen im Artikel
Das Optimierungs- und Automatisierungspotenzial durch große Sprachmodelle (Large Language Models, LLM), die auch unter dem Begriff Generative AI (Gen AI) laufen, ist weitgefächert. Es reicht vom Vergleichen von Requirements im Engineering über das automatisierte Vorformulieren von Texten im Qualitätsmanagement bis hin zur Unterstützung bei der Angebotserstellung im Vertrieb. Beim Zusammenfassen und Vergleichen von komplexen Informationen helfen integrierte KI-Assistenten wie Microsoft Copilot schon jetzt dabei, viel Zeit zu sparen. Wer sich mit Chat GPT auskennt, weiß, dass LLM beim schnellen Auffinden von spezifischen Informationen helfen. Diese Fähigkeit lässt sich nutzen, um Wissens- und Assistenzsysteme für die eigenen Prozesse zu entwickeln – zum Beispiel um neue Fachkräfte durch einen Prozess zu führen oder komplexe Entwicklungsaufgaben zu beschleunigen. Je mehr eigene „GPTs“ (Generative Pre-trained Transformer) ein Unternehmen erschafft und mit den Daten für einen spezifischen Wissensbereich füttert, desto effizientere Prozesse sind künftig möglich.
Beim Experimentieren mit LLM wie Chat GPT erleben Unternehmen derzeit noch viele Herausforderungen. Ein typisches Problem nennt sich „lost in the middle“: Bei Texten, die verarbeitet werden, etwa einer großen PDF-Datei, wird der Mittelteil von der KI nicht richtig verstanden. Das ist beispielsweise dort schwierig, wo für die Produktentwicklung automatisiert Spezifikationen und gesetzliche Vorgaben in Form von Normen und Gesetzestexten abgeglichen werden sollen.
Hinzu kommt, dass im Schnitt ein Viertel der Antworten nicht nutzbar ist, weil die KI Parameter vergleicht, die nicht zueinander passen – oder einen zu starken Fokus auf eigentlich unwichtige Details legt. Hier muss noch manuell nachgearbeitet werden, indem die wichtigsten Parameter identifiziert werden. Diese Hürden sind jedoch beileibe kein Grund, die Technologie abzuschreiben. Die Entwicklung geht in diesem Feld rasant voran, die Anbieter von LLM bessern kontinuierlich nach.
KI-Wissenssysteme erfordern sie viel Auseinandersetzung, gerade auch mit Blick auf Daten, die dafür relevant sind. Um einen Vorsprung im Wettbewerb zu erarbeiten, sollten sich Unternehmen deshalb schon heute mit der Technologie beschäftigen. Zugleich wird in Projekten derzeit deutlich, dass die KI trotz der Herausforderungen bereits Nutzen bringen kann. Ein Beispiel, das sich in der Praxis bereits gut umsetzen lässt, ist der bessere Umgang mit dynamischeren Supply Chains. In den letzten Jahren hat sich gezeigt, wie schnell Lieferkettenprobleme entstehen können. Auf Basis von LLM kann beispielsweise die Beschaffung optimiert und die Lieferfähigkeit sichergestellt werden, indem die KI die Rahmenbedingungen von Supply Chains beobachtet. Ob Wetterereignisse, Handelskonflikte oder Streiks: Die Erkenntnisse fließen automatisiert in die Bestelloptimierung im ERP-System ein, um rechtzeitig alternative Bestellungen auszulösen. Ein solches Assistenzsystem hilft zudem, zu einer täglichen Lieferkettenoptimierung zu gelangen.
Im Beschaffungsprozess kann ein KI-Assistenzsystem dazu beitragen, schneller das beste Angebot zu identifizieren. Das System vergleicht eine beliebige Anzahl von Konditionen, Lieferzeiten oder Nachhaltigkeitsmerkmalen automatisiert – anstatt dass Menschen Produktdatenblätter und Preislisten durchforsten. Künftig werden immer mehr Unternehmen auf eine solche Automatisierung setzen. Das bedeutet zugleich, dass es wichtiger wird, Marketing-Informationen besser maschinenlesbar zur Verfügung zu stellen.
Nicht die Sicherheit vergessen
Bevor Industriebetriebe die KI-Technologie erproben, sollten jedoch Themen wie Datenschutz und Datensicherheit geklärt und Nutzungs-Guidelines definiert werden. So wird sichergestellt, dass nicht versehentlich personenbezogene Daten oder intellektuelles Eigentum in das allgemeine Trainingsmaterial einfließen. Grundsätzlich gilt, dass für die professionelle Anwendung und beim Aufbau eigener Wissenssysteme auf lokale LLM gesetzt werden sollte, die intern betrieben werden. Einige Anbieter haben die Sicherheitsherausforderungen für Unternehmen bereits erkannt. So garantiert etwa Microsoft für die Assistenztechnologie Copilot oder für Azure Open AI Service, die auf Chat GPT von Open AI basieren, dass die Datenschutzvorgaben eingehalten werden. Beratungspartner können dabei helfen, individuelle Einsatzpotenziale zu identifizieren und erste Roadmaps anzugehen.
Die Potenziale erkunden
In Bereichen, in denen es um absolute Verlässlichkeit geht, wie etwa im Qualitätsmanagement, ist noch besondere Vorsicht angebracht. Zugleich gibt es bereits viele Einsatzmöglichkeiten im Bereich von Schulung und der Einarbeitung von neuem Personal. Damit können Unternehmen nicht zuletzt den Herausforderungen von Fachkräftemangel und zunehmender Fluktuation besser begegnen. Insbesondere wenn man Technologien wie Gen AI und AR/VR (Augmented und Mixed Reality) verknüpft, lassen sich Abläufe weiter verbessern. Dann kann per AR-Brille durch Prozesse geführt und mangelnde Erfahrung durch Expertenwissen aus der KI wettgemacht werden, um beispielsweise einen Fehler an der Maschine zu beheben. Natürliche Sprache ist die Stärke von Gen AI: Anleitungen können auch automatisch in die Sprache des jeweiligen Beschäftigten übersetzt und Fragen in natürlicher Sprache gestellt werden.
Es ist davon auszugehen, dass sich die rasante Entwicklung weiter fortsetzt. Das zeigt sich auch darin, dass immer wieder neue Anbieter in den Ring steigen oder neue Funktionalität geboten wird. So liefert mittlerweile das freie Open-Source-LLM Llama 3 von Meta eine gute Leistung ab. Das Open-Source-LLM Command R Plus wiederum bringt interessante Funktionen mit, die es bei Chat GPT noch nicht gibt und ist besonders gut in deutscher Sprache. Beide Modelle können aus Sicherheitsgründen ebenfalls lokal am eigenen Server in Betrieb genommen werden.