Industrie

Jenseits des ChatGPT-Hypes: Realer Nutzen durch KI in der Industrie

Nach dem explosionsartigen Erfolg von ChatGPT und dem damit verbundenen GenAI-Hype kommt für viele Unternehmen die Ernüchterung. Viele KI-Projekte enden als Proof-of-Concept und getätigte Investitionen zahlen sich nicht aus. Wir zeigen Ihnen spannende und lohnende Anwendungsfälle im industriellen Umfeld und beantworten die Frage, warum genau diese Use Cases Sinn machen.

particle and wire frame network
11 Minuten Lesezeit
Mit Insights von

Der Einsatz von Künstlicher Intelligenz (KI) hat längst in allen Branchen Einzug gehalten – die Industrie ist hier keine Ausnahme. In den letzten Monaten haben KI-Anwendungen, insbesondere rund um die Thematik generative KI einen beispiellosen Hype ausgelöst. Diese Technologien haben außergewöhnlich vielfältige Anwendungsgebiete und damit das Potenzial, die Industrie zu revolutionieren. Aber: Unserer Erfahrung nach fehlt noch immer ein klares Gesamtbild in Bezug auf das allgegenwärtige und überwältigende Thema KI. Es herrscht große Unsicherheit, in welchen Bereichen entlang der industriellen Wertschöpfungskette KI echte Vorteile bringt.

Wir skizzieren erfolgreich implementierte Anwendungsfälle und zeigen den Nutzen im operativen Geschäft, wie z. B. Effizienzsteigerung oder Kostenoptimierung, aber auch Herausforderungen, wie z. B. Datenschutz.

Im Zühlke-Blogpost „ChatGPT: Generieren Sie Umsatz statt nur Text!“ haben wir grundlegend dargestellt, was große Sprachmodelle wie ChatGPT im Allgemeinen sind und wie die Technologie funktioniert. Zudem haben wir in einem frühen Stadium erste Einsatzmöglichkeiten erörtert und gezeigt, dass solche Large Language Models (LLM) eine breite Palette von Anwendungsmöglichkeiten in Unternehmen bieten, von der Verbesserung des Kundendienstes über die Automatisierung von Routineaufgaben bis hin zur Erstellung von Inhalten. 

Der Einsatz von generativer KI kann so zu erheblichen Kosteneinsparungen und Effizienzsteigerungen für Unternehmen führen, bringt aber auch Herausforderungen mit sich. So muss z. B. die ethische Nutzung der Technologie ebenso sichergestellt sein wie die Kontrolle von Korrektheit und Angemessenheit des generierten Textes.  

Auf dieser Basis werden wir nun tiefer eintauchen und konkrete Use Cases, Vorteile, Herausforderungen und technologische Fragestellungen generativer KI-Modelle bzw. großer Sprachmodelle für die Industrie beleuchten.

Betrachten wir zunächst die Bereiche Produktmanagement und -entwicklung.

Smart Documentation System für R&D-Teams

Im R&D-Bereich ist die effiziente Dokumentation von Entwicklungen und Innovationsprozessen entscheidend, aber auch zeitaufwändig. Herkömmliche manuelle Methoden sind fehleranfällig und verschlingen die wertvolle Zeit Ihrer Fachleute. Eine KI-basierte Lösung dieses Problems: Ein Smart Documentation System, das künstliche Intelligenz nutzt, um die Erfassung, Speicherung und den Abruf von R&D-Daten zu automatisieren.

So wird nicht nur die Genauigkeit der Dokumentation sichergestellt, sondern auch die Arbeitsbelastung der Ingenieur:innen und Techniker:innen erheblich reduziert. Durch die Integration in bestehende Prozesse und Software minimiert das Smart Documentation System menschliche Fehler und beschleunigt den gesamten Dokumentationsprozess. So können sich R&D-Teams voll und ganz auf ihre Kernaufgaben konzentrieren und gewinnen an Effizienz, Präzision und Produktivität.

Automatisierte Programmierung durch KI-generierten Code

Im Blogpost „ChatGPT: Generieren Sie Umsatz statt nur Text!“ haben wir gezeigt, dass ChatGPT z. B. für die Generierung von Service- oder Marketingtexten genutzt werden kann. Einen weitaus größeren Impact auf die Industrie hat sicherlich der spannende Use Case „Generierung von Code“, z. B. für die automatische Programmierung von Maschinensteuerungen. Mittels großer Sprachmodelle können Steuerungsanlagen für Maschinen oder Anlagen automatisch programmiert werden. Mitarbeitende müssten der Maschine dann lediglich sagen, was sie tun sollen und die KI generiert eigenständig die entsprechenden Codes.  

Die Möglichkeiten gehen aber noch weiter: Large Language Models können verwendet werden, um Code für automatisierte Tests zu generieren. Auch hier reicht dann eine Beschreibung des zu erzeugenden Tests aus, um ausführbaren Code zu erzeugen. Diese Ansätze werfen allerdings auch große Fragen hinsichtlich der Korrektheit und der Sicherheit von KI-generiertem Code auf. Gemeinsam mit Kunden erarbeiten wir von Zühlke gerade entsprechende Leitlinien zur Nutzung dieses Codes.

Auch im Bereich interne Prozesse und Manufacturing Operations bietet künstliche Intelligenz großes Potenzial:

Wissensdatenbank für effizientere Prozesse und engere Kundenbindung

Insbesondere „Ask your document“ bietet breite Anwendungsmöglichkeiten in der Industrie. So können sowohl interne als auch externe Prozesse beschleunigt und vereinfacht werden. Ein Beispiel: Ein Large Language Model antwortet auf einen Fehlerbericht einer Maschine oder auf eine frei formulierte Frage eines Mitarbeitenden und liefert aus einer Datenbank die korrekte Fehlerbehebung inklusiver passender Ersatzteile und Beschreibung der einzelnen Arbeitsschritte.  
Neben Fehlermeldungen ist dieses Beispiel auch auf Materialzusammensetzungen für die Prozessfertigung, Gefahrenhinweise für den Transport, Anleitungen für Montageprozesse, Technische Zeichnungen, Ersatzteil-Identifikation, Zertifikate für Material oder Produkte, Herkunftsbescheinigungen, Sustainability-Reportings und viele mehr übertragbar.

Und auch extern kann „Ask your document“ Unternehmensprozesse unterstützen, insbesondere im Bereich Self-Service. Gerade in Zeiten, in denen zunehmend Servicetechniker fehlen, kann ein Large Language Model auf Basis einer intelligenten Knowledge-Datenbank Antworten auf Kundenfragen und -probleme liefern und diesen bei der Behebung unterstützen, z. B. für Bedienungsanleitungen, Fehlermeldungen und -behebungen, Inbetriebnahmen etc. 

KI-basierte Prozessüberwachung, -optimierung und -automatisierung mittels Computer Vision

In industriellen (Produktions-)Umgebungen gibt es häufig Werte, Ergebnisse oder bestimmte Ereignisse, die von herkömmlichen Sensoren nicht direkt erfasst werden können. Diese Einschränkung kann eine präzise Prozesssteuerung und Automatisierung behindern. Eine KI-gestützte Computer-Vision-Lösung, wie Zühlke sie für die Martin GmbH realisiert hat, bietet hier eine innovative Antwort: Sie ermöglicht die präzise Erkennung und Messung dieser schwer fassbaren Faktoren, reduziert den Bedarf an menschlichem Eingreifen und steigert die Gesamteffizienz der Prozesse erheblich. Das sind erhebliche Vorteile gegenüber traditionellen Methoden. Darüber hinaus vereinfacht diese Technologie die Extraktion relevanter Informationen aus Bildern oder Videos sowie die automatische Kontexterkennung, wie z. B. in unserem Projekt mit PDR.

Large Language Models als Single-Point-of-Contact für Mitarbeitende

Ein weiterer spannender Use Case, der auch im industriellen Umfeld für deutliche Effizienz- und Effektivitätssteigerungen sorgt, eröffnet sich im Bereich Systemdialog: Ein Large Language Model wie ChatGPT kann als alleiniges Interaktionssystem im Unternehmen eingesetzt werden. Mitarbeitende müssten sich nicht mehr in verschiedene Systeme, wie z. B. ERP-, WMS- oder MES- Systeme, einarbeiten. Für den Nutzenden ist es unerheblich, in welchem System er arbeitet oder welches System er gerade nutzt. Durch Eingabe von Fragen oder Befehlen interagiert er mit dem System im Dialog. Mit Hilfe von definierten Zugangsrechten, die über Logins verwaltbar sind, können Dateneingaben und Antworten des Systems nur entsprechend der Zugriffsrechte generiert werden. 

Eine derartige Interaktion kann auch Mitarbeitende im Workflow-Management unterstützen und macht den Einsatz von Personal flexibler. So könnten bei kurzfristigen, z. B. krankheitsbedingten Ausfällen, auch Mitarbeitende aus anderen Bereichen einspringen, wenn sie das System bei bestimmten Tätigkeiten, z. B. in der Intralogistik oder im Service, iterativ unterstützt. Gleiches gilt für neue Mitarbeitende oder Aushilfskräfte, die mit Systemunterstützung schneller eingelernt und damit schneller produktiv eingesetzt werden können. 

Entsprechend der industriellen Wertschöpfungskette möchten wir noch einen dritten Schwerpunkt beleuchten, in dem wir bereits einige lohnende Use Cases identifiziert und umgesetzt haben: Die Bereiche Marketing, Sales und Service.

Automatisierte Angebotserstellung in Marketing und Sales

Vertriebsteams in Industrieunternehmen, insbesondere im Maschinen- und Apparatebau, stehen oft vor der Herausforderung, innerhalb kurzer Zeit ein detailliertes Angebot für hochkomplexe und umfassende Anforderungen erstellen zu müssen. So auch unser Kunde Burckhardt Compression: Mitarbeitende investieren jedes Jahr eine beträchtliche Anzahl von Stunden in das manuelle Durchsuchen von Produktspezifikationsdokumenten, die sich in der Regel sehr stark in Strukturen, Inhalten und Verweisen unterscheiden – eine mühsame und zeitaufwändige Aufgabe.

Solche manuellen Prozesse sind fehleranfällig, benötigen hohen zeitlichen Aufwand und führen zu langen Wartezeiten für Ihre Kunden. Die Implementierung eines KI-gesteuerten, automatisierten Angebotssystems kann diesen Prozess revolutionieren. Im Falle von Burckhardt Compression verspricht die Lösung nicht nur eine Vereinfachung interner Prozesse, sondern auch eine deutliche Reduktion des manuellen Datenextraktionsaufwands um rund 10%.

Predictive Maintenance and Service-Support für die maximale Verfügbarkeit Ihrer Anlagen

Die Maximierung der Uptime ist entscheidend für die Effizienz und Rentablität von Industrieunternehmen. Denn unerwartete Ausfallzeiten führen zu hohen Kosten. Erschwerend kommt hinzu, dass der zunehmende Personalmangel aufgrund von weniger erfahrenem Personal zu deutlich längeren Reparaturzeiten führt. Veraltete, reaktive Wartungsmethoden sind daher schon längst dem Aussterben nahe – Stichwort Predictive Maintenance. Aber auch in diesem Bereich gibt es noch KI-basiertes Potenzial, denn hier kommt AI-gesteuerte Predictive Maintenance und sogenannte Supportive Repair Guidance ins Spiel.

Derartige Systeme können Ausfälle vorhersagen, bevor sie auftreten, und bieten zudem eine schrittweise Reparaturanleitung. So werden Ausfallzeiten minimiert und Wartungskosten gesenkt, indem proaktive Eingriffe auf Basis datenbasierter Einblicke ermöglicht werden. Gleichzeitig wird die Reparatureffizienz erhöht, indem weniger erfahrenes Personal durch den Reparaturprozess geführt wird. Das führt zu einer signifikanten Steigerung der Produktivität und einer nachhaltigen Optimierung der Betriebszeit Ihrer Anlagen.

Effizientes Knowledge-Management, kostenoptimierte Prozesse und engere Kundenbindung

Die beschriebenen Anwendungsfälle zeigen ein klares Bild: Auch die Industrie kann von generativer KI profitieren. Anwendungsfälle im Bereich „Ask your document“ und „Dialog“ ermöglichen bei der Durchsuchung der eigenen Daten nicht nur eine effizientere Suche, sondern schaffen de facto ein bisher nichtexistierendes Knowledge-Management. Anfragen können in natürlicher Sprache erfolgen, es gibt weniger Abhängigkeiten von Keywords, die Modelle liefern kontextabhängige Ergebnisse und erlauben ein iteratives Abfragen der Daten via "Chat".  

Large Language Modelle sorgen nicht nur für steigende Effizienz und sinkende Kosten bei internen und externen Prozessen. Sie bieten auch Unterstützung bei der Bewältigung des demographischen Wandels und des Fachkräftemangels, z. B. durch die Entlastung von Service-Mitarbeitenden. Und Unternehmen profitieren nicht zuletzt von steigender Kundenbindung und Kundenzufriedenheit aufgrund schneller und präziser Informationsbereitstellung im (Self-)Service. Und mit bereits vorhandenen oder noch auszureifenden Ansätzen im Bereich Codegenerierung lassen sich Prozesse beschleunigen, vereinfachen und automatisieren. Was ebenfalls in steigender Effizienz und Kosteneinsparung mündet. 

Datenschutz, Kosten und Qualität – Herausforderungen der Nutzung von generativer KI 

Allerdings bringt die Nutzung von KI im Allgemeinen auch Herausforderungen mit sich. Wir haben nachfolgend die wichtigsten Fragestellungen beleuchtet und bewertet. 

Ein zentraler Punkt ist sicherlich das Thema Datenschutz. In der Regel sind die Quellen und Dokumente von Unternehmen entweder sehr spezifisch, wie z. B. Serviceanleitungen für Produkte, oder sogar vertraulich, wie z. B. Prozess- oder Funktionsbeschreibungen. Diese Daten und Texte dürfen nicht allgemein zugänglich, z. B. über ChatGPT, sein. Müssen Unternehmen also ihr eigenes KI-Modell aufbauen? 

Ein eigenes KI-Model kann grundsätzlich entwickelt werden, allerdings ist das zum momentanen Zeitpunkt in den allermeisten Fällen nicht wirtschaftlich, daher nicht sinnvoll und auch nicht nötig. Die angesprochenen Anwendungsfälle können jedoch gut durch ein eigenes System abgedeckt werden, das die bereits angesprochenen KI-Modelle von OpenAI und Microsoft augmentiert. Dadurch können die beeindruckenden Fähigkeiten dieser Modelle verwendet werden, ohne die sensiblen Informationen öffentlich zugänglich zu machen. 

Denn unternehmensinterne Daten können zur Verbesserung bzw. zur Erweiterung des bestehenden Large Language Models indiziert und mit der Fragestellung in das KI-Model eingespeist werden. Mittels einer klassischen Zugriffskontrolle können sensible Daten und Dokumente nur von berechtigten Unternehmen bzw. Mitarbeitenden durchsucht werden. Der Datenschutz ist also bei technischen und prozessbezogenen Daten gewährleistet. Und auch bei personenbezogenen Daten haben wir gute Erfahrungen gemacht, da hier dieselben Standards wie bei der Cloud-Speicherung zum Tragen kommen. So findet die Verarbeitung von Microsofts ChatGPT Version bei Azure Cognitive Services in den Niederlanden und damit innerhalb der EU statt. Bis jetzt arbeiten alle Modelle in der Cloud. Der rapide Fortschritt im Open Source Bereich macht on-Premise-Lösungen in den kommenden Jahren aber durchaus realistisch. 

Für das Einlesen von eigenen Dokumenten und damit den Aufbau einer unternehmenseigenen Wissensdatenbank fallen Kosten an, diese sind aber um ein Vielfaches geringer als die Kosten für den Aufbau eines eigenen Modells. Large Language Models werden nach einem Nutzenmodel abgerechnet, im Falle von ChatGPT betragen die Kosten 0,0018 € pro 1.000 Wörter. Der Aufbau der Wissensdatenbank ist somit ein initialer Einmalkostenpunkt. Hinzu kommen Kosten für kontinuierliches Updaten der Wissensdatenbank und Laufzeitkosten, diese sind jedoch nicht die Hauptkostentreiber. 

Eine letzte Frage, die sich Unternehmen oft stellen, ist die Frage nach der Korrektheit und der Qualität der Antworten. Wie bei menschlichen Mitarbeitenden auch kann nicht zu 100 % garantiert werden, dass die gelieferten Antworten korrekt sind. Allerdings lässt sich Korrektheit von gefundenen Informationen durch die Bereitstellung der gefundenen Quellen leicht überprüfen. Dabei ist es, wie bei der Einführung jeder neuen Technologie, absolut notwendig, die zugrundeliegenden Prozesse anzupassen. 

Generative KI: Hype ignorieren, Mehrwert generieren 

Zweifellos hat ChatGPT einen enormen, nicht immer zu 100 Prozent berechtigten, Hype um die Potenziale generativer KI ausgelöst. Fest steht aber auch: Unternehmen, die die Möglichkeiten optimal für ihr Business nutzen, profitieren von steigender Effizienz und Effektivität, sparen Zeit und Kosten und können neue Einnahmequellen generieren. Dazu müssen nicht immer neue, generative Anwendungsfälle kreiert werden, auch bestehende Anwendungsfälle sollten verbessert werden. (Generative) künstliche Intelligenz wird auch industrielle Prozesse nachhaltig verändern. Damit die Technologien wirklich zum Gamechanger für die Industrie werden, müssen sich Unternehmen jetzt mit der Technologie und ihren Möglichkeiten befassen. Und vor allem sollten Unternehmen für sich die Frage beantworten: Wo sehen wir das größte Potenzial und warum? Priorisieren Sie solche Uses Case, die einen klaren Nutzen erkennen lassen und stellen Sie diese hinten an, bei denen das nicht der Fall ist.

Wir arbeiten täglich an neuen Ideen und Anwendungsfällen, um unsere Kunden mit neuen Technologien zu unterstützen. Sie haben weiterführende Ideen für konkrete Use Cases oder haben Fragen zum Einsatz von KI in Ihrem Unternehmen? Sprechen Sie uns gerne an! 

Philipp Morf
Ansprechpartner für die Schweiz

Philipp Morf

Head AI & Data Practice

Dr. Philipp Morf ist promovierter Ingenieur ETH und leitet seit 2015 Bereich Artificial Intelligence (AI) und Machine Learning (ML) Lösungen bei Zühlke. Als Director des AI Solutions Centers konzipiert er effektive AI/ML Anwendungen und ist ein gefragter Redner zu AI-Themen im Bereich Anwendungen und Anwendungstrends. Mit seiner langjährigen Erfahrung als Berater im Bereich Innovationsmanagement schlägt er die Brücke zwischen Business, Technologie und den Menschen als Anwender von AI.

Kontakt
Vielen Dank für Ihre Nachricht.
Dan Klein Zuhlke
Ansprechpartner für Großbritannien

Dan Klein

Global Chief of Data & AI

Dan Klein ist Zühlke's Chief of AI & Data. Er verfügt über umfangreiche Erfahrungen in verschiedenen Branchen. Als erfahrener Ingenieur und strategischer Berater verknüpft Dan Klein erfolgreich die Bedürfnisse des Business Leadership mit der technischen Expertise von Fachteams. Er schafft es so, erfolgreich datengetriebene Transformationsprojeke für Unternehmen umzusetzen.

Kontakt
Vielen Dank für Ihre Nachricht.
Philipp Morf
Ansprechpartner für Deutschland

Philipp Morf

Head AI & Data Practice

Dr. Philipp Morf ist promovierter Ingenieur ETH und leitet seit 2015 Bereich Artificial Intelligence (AI) und Machine Learning (ML) Lösungen bei Zühlke. Als Director des AI Solutions Centers konzipiert er effektive AI/ML Anwendungen und ist ein gefragter Redner zu AI-Themen im Bereich Anwendungen und Anwendungstrends. Mit seiner langjährigen Erfahrung als Berater im Bereich Innovationsmanagement schlägt er die Brücke zwischen Business, Technologie und den Menschen als Anwender von AI.

Kontakt
Vielen Dank für Ihre Nachricht.
Barbara Hotwagner
Ansprechpartner für Österreich

Barbara Hotwagner

Global Partner Manager Microsoft

Barbara setzt sich für Nachhaltigkeit und Diversität ein und bringt ihre Leidenschaft in ihre Rolle als Global Microsoft Partner Manager ein. In dieser Funktion sorgt sie für eine förderliche Beziehung zu Microsoft, einem wichtigen Partner für den Erfolg von Zühlke. Mit ihrem Hintergrund als Managing Director of Technology und umfangreicher Erfahrung in der Projektkoordination in der IT-Branche bringt Barbara über 20 Jahre Expertise mit. Ihr Engagement für die strategische Ausrichtung und die Förderung von Partnerschaften treibt Innovation und Wachstum im Unternehmen voran.

Kontakt
Vielen Dank für Ihre Nachricht.
Steve Nunez
Ansprechpartner für Singapur

Steve Nunez

Steve Nunez ist Head of Data & Artificial Intelligence bei Zühlke Asia. Er begann seine Karri-ere beim NASA Artificial Intelligence Laboratory des Kennedy Space Centre und hat über 25 Jahre Erfahrung in der Leitung von KI- und Data-Science-Teams. In seiner Funktion berät er Führungskräfte hinsichtlich der praktischen Anwendung von künstlicher Intelligenz im Zu-sammenhang mit der Geschäfts- und KI-Strategie sowie der Transformation zum datengetriebenen Unternehmen.


Vor seiner Zeit bei Zühlke leitete Steve das Professional-Services-Team und das technische Pre-Sales-Team eines großen Datenanbieters, der intelligente Lösungen für die Finanz- und Versicherungsbranche sowie den öffentlichen Sektor bereitstellt.
 

Vielen Dank für Ihre Nachricht.