Navigation

Automatisiertes Content-Providing durch Smarte Steuersysteme

(Drittmittelfinanzierte Gruppenförderung – Teilprojekt)

Titel des Gesamtprojektes: FuE-Programm „Informations- und Kommunikationstechnik“
Projektleitung: Martin Matzner
Projektbeteiligte: Martin MatznerTobias PauliEmanuel Marx
Projektstart: 1. Januar 2018
Projektende: 31. Dezember 2019
Akronym: AutoCoP
Mittelgeber: andere Förderorganisation, Bayerische Staatsministerien

Projektbeschreibung

Ein reißender Strom an Zustandsdaten ist das Nebenprodukt moderner Industrieanlagen in der Digitalen Fabrik. Dieser Datenstrom ist Antrieb für digitale industrielle Dienstleistungssysteme, die auf der zeitnahen Datenanalyse fußen. 

Die sich so ergebenden Möglichkeiten will sich AutoCoP für die technische Dokumentation zunutze machen. AutoCoP erkennt durch die Auswertung von Sensordaten anomales Verhalten und Fehlerfälle von Industrieanlagen und führt diese Beobachtungen mit Kontextinformationen sowie Expertenwissen erfahrener Redakteure zusammen.  

So entstehen klare Handlungsanweisungen für komplexe Fehlerfälle, die an der Maschine bereitgestellt werden und Diagnosen sowie Korrekturen durch Anwender mit unterschiedlicher Erfahrung und Qualifikation ermöglichen.

Das Projekt

Zunehmende Komplexität in der Digitalen Fabrik

Die Anforderungen an die Technische Dokumentation industrieller Anlagen haben sich stark verändert. Diese Anlagen sind häufig mit mehreren Tausend Sensoren und Mikrochips ausgerüstet, die Messwerte im Millisekunden-Takt an zentrale Steuereinheiten zur Auswertung weiterleiten. Im fehlerfreien Zustand führen die Anlagen standardisierte Abläufe in weiten Teilen automatisiert aus und der Maschinenführer kann dank der Sensor-Daten den Fertigungsablauf mithilfe hoch verdichteter Kennzahlen überwachen und feinjustieren. 

In der Digitalen Fabrik der Industrie 4.0 steigt die Vernetzung zwischen Mensch, Produkt und Maschinen und die Digitalisierung von Arbeitsprozessen nimmt zu.

Deshalb steigt das durch moderne Industrieanlagen produzierte Datenvolumen weiter. Intelligente Algorithmen nutzen die entstehenden Big Data-Datenbestände bereits jetzt für die Optimierung globaler Prozesse oder für die Planung prädiktiver Wartungsaktivitäten.

Intelligente Instandhaltung durch AutoCoP

Das Projekt AutoCoP entwickelt vor diesem Hintergrund ein lernfähiges Knowledge-Management-Tool für die automatisierte Content-Bereitstellung durch smarte Steuerungssysteme. Damit möchte AutoCoP die Qualität und insbesondere die Reichweite der Technischen Dokumentation durch die automatisierte Erzeugung von Dokumentationsinhalten nachhaltig verbessern. 

Als primäre Informationsquelle dienen reale Produktionsdaten der Industrieanlage, die durch Sensoren und Aktoren erzeugt, automatisiert klassifiziert und in entsprechenden Datenpools angereichert werden. Intelligente Algorithmen erkennen nahezu in Echtzeit unter Einbezug historischer Daten anomales Verhalten und melden einen Informationsbedarf, der schließlich von einem geschulten Redakteur weiterverarbeitet wird. 

Die Anlagendokumentation kann so nicht nur strukturiert und dynamisch weitergeschrieben, sondern zukünftige Fehlerfälle auch von Nicht-Experten identifiziert, klassifiziert und behoben werden.

Im Ergebnis ermöglicht AutoCoP es, meist als implizit vorliegendes Wissen in Form von jahrelanger Erfahrung aus der beruflichen Praxis von Redakteuren und Maschinenführern zu explizieren und kontextspezifisch sowie anwendergerecht bereitzustellen. Fehlerbedingte Standzeiten von Maschinen, können so reduziert werden, da selbst unerfahrene Anlagenbetreuer anhand genauer Handlungsanleitungen Probleme effektiv und lösungsorientiert beseitigen können.

Ergebnisse


Für das Projekt konnte nach umfangreicher Abwägung geeigneter Architekturansätze die Kappa-Architektur als Basis der Umsetzung festgelegt werden. Diese zeichnet sich durch ihre enorme Auswertungsgeschwindigkeit aus, und stellt die Weiterentwicklung der bisher als gängig zu bezeichnenden Lambda-Architektur dar indem sie den vorherigen Batch-Layer durch einen weiteren Speed-Layer ersetzt.

Von links beginnend werden die gewonnen Daten an einen zentralen Datenverteiler übergeben. Dieser leitet die Daten in die echtzeitfähige Logikschicht weiter, um sie in einer ebensolchen Verarbeitungseinheit zu analysieren. Auf der Datenhaltungsschicht kann neben Cache-Speichern ein persistentes Abbild der Ausgangs- und Enddaten durch Ablage der Daten in eine zentralen Datenbank erfolgen. Dies erlaubt weiterführende Datenanalysen. Die finalen Ergebnisse werden der Präsentationsschicht übergeben, welche die Aufgaben einer bedarfsgerechten Aufbereitung und Interaktion für und mit dem Endnutzer übernimmt (Lin 2017).

Für die Auswahl geeigneter Software je Architekturkomponente wurde nach Möglichkeit auf bereits bewährte Standardsoftware gesetzt, um eine hohe Praxistauglichkeit sicherzustellen und Lernaufwände zu minimieren.

Die Maschinenzustandsdaten aus der intelligenten Fabrik stellen die Ausgangsbasis desUnterstützungssystems dar. Als zentrale Datenverteilungseinheit fungiert der Publish-Subscribe Message Broker Apache Kafka. Dieser wurde speziell für die Sammlung und Verteilung großer Datenvolumen mit geringer Latenzzeit entwickelt (Thein 2014). Die analytische Verarbeitungder Daten auf der echtzeitfähigen Verarbeitungsschicht übernimmt eine Complex Event Processing (CEP) Einheit, basierend auf der weiterverbreiteten Esper Anwendung von EsperTech. CEP selbst ist eine Softwaretechnologie für die kontinuierliche Echtzeitverarbeitung großer Datenströme. Auf Basis vordefinierter Regeln wird anomales Verhalten in den Datenreihen entdeckt und zugeordnet (Etzion et al. 2011). Der bestehende Nachteil eines deklarativen Charakters für die Regelbildung wird durch Ansätze aus dem Machine Learning adressiert (Wanner et al. 2019). 

Digitalisierte Inhalte aus der technischen Dokumentation und deren Fortschreibung werden in einer zentralen Wissensdatenbank abgelegt. Ein redaktionellen Wissenssystems organsiert dieses Wissen, sodass relevantes Expertenwissen für erkannte, anormale Datenmuster präsentiert wird. Hierfür wurde die Software Confluence von Atlassian ausgewählt, welche mit einer zugehörigen, relationalen Wissensdatenbank verknüpft ist. Für die visuelle Aufbereitung und Nutzerinteraktion im Backend der Präsentationseinheit stehen aktuell zwei Anwendungen bereit. Einerseits ein selbstentwickeltes Dashboard auf Basis von R-Shiny. Andererseits eine Datenbrille für die visuelle Aufbereitung von bestehenden Reparaturanleitungsvideos per Augmented Reality, um dem Mitarbeiter vor Ort eine intuitive Schritt-für-Schritt-Anleitung zu ermöglichen.

Quellennachweise: 

Etzion, O, Niblett, P, Luckham, DC (2011) Event processing in action. Manning Greenwich.

Fischertechnik 2019. Lernfabrik 4.0 – Digitalisiertes Trainings- und Simulationsmodell für Industrie 4.0-Anwendungen.

Kagermann, Henning, Wolfgang Wahlster und Johannes Helbig. 2018. „Umsetzungsempfehlungen für das Zukunftsprojekt Industrie

4.0: Abschlussbericht des Arbeitskreises Industrie 4.0“.

Lin, J (2017) The lambda and the kappa. IEEE Internet Computing 21(5): 60-66.

Schlick, Jochen, u. a. 2014. „Industrie 4.0 in der praktischen Anwendung“. Bauernhansl et al. (Hrsg.). Industrie 4.0 in Produktion,

Automatisierung und Logistik: 57–84.

Soder, J. 2014. „Use Case Production: Von CIM über Lean Production zu Indistrie 4.0“. Bauernhanslet al. (Hrsg.). Industrie 4.0 in

Produktion, Automatisierung und Logistik: 85–102.

Thein, K (2014) Apache kafka: Next generation distributed messaging system. International Journal of Scientific Engineering and

Technology Research 3(47): 9478-9483.

Wanner, J, Wissuchek, C, Janiesch, C (2019) Machine Learning und Complex Event Processing: Effiziente Echtzeitauswertung am

Beispiel Smart Factory. Conference on Wirtschaftsinformatik. Siegen, Germany. 



Das Unterstützungssystem AutoCoP konnte auf Basis der im vorherigen Artikel vorgestellten Softwarekombinationen und Verbindungen erfolgreich um die ersten drei Reifegradstufen im wissenschaftlichen Analytics-Prozess erweitert werden. Über die deskriptive Untersuchung des Produktionsprozesses hinaus sind bereits ebenso eine reaktive Erkennung von Fehlern sowie proaktive Warn- und Empfehlungshinweise möglich.

Modellfabrik mit Datenabgriff. Die Fabriknachbildung 4.0 der Firma Fischertechnik GmbH ist ein Simulationsmodell, welches die Verkettung und den Ablauf einer Bearbeitungslinie imitiert. Auf Basis von angebrachter Sensorik wird der Produktions­ablauf aufgezeichnet. Bei der Ausführung werden die jeweiligen Maschinenkomponentenzustände an den verschiedenen Sensoren ausgelesen und durch eine speicherprogrammierbare Steuerung (SPS) verarbeitet. Ebenso findet die bildhafte Aufzeichnung auf Basis einer hochauflösenden Webkamera statt, um durch die Kombination jederzeit Ursachen auftretender Fehler rückverfolgbar zu machen. 

Transparenz (Deskriptive Analytics). Der Produktionsprozess selbst wird durch den Einsatz von Process Mining aus den gesammelten Daten nachvollziehbar. Ebenso sind mit Vergleich des identifizierbaren Standardablaufs etwaige Conformance Verstöße identifizierbar. Auch eine definierte Verbesserung des vorhandene Prozessmodelle wird möglich, um z.B. auf Basis der Zeitstempel Durchlaufzeiten zu optimieren oder potenzielle Engpässe zu erkennen (Aalst et al. 2012). Die Komplexitätsreduktion erfolgt für den Anwendern über ein selbstprogrammiertes Dashboard mit verschiedenen Untersuchungsmöglichkeiten hinsichtlich der Datenauswertung. 

Reaktiv (Diagnosic Analytics). Anhand der gewonnen Informationen aus dem vorherigen Schritt, in Kombination mit Methoden aus dem maschinellen Lernen, sind im Forschungs­projekts Vermutungen anormaler Datenmuster näher untersucht worden. Einige dieser potenziellen Fehlerzustände wurden in konkrete Überwachungs­muster überführt, sodass sie künftig vom System erkannt und zugeordnet werden. Die Lokalisierung und Benennung bei erneutem

Auftreten werden dem Nutzer über ein eigenes Dashboard präsentiert. Durch die Anbindung des redaktionelle Wissenssystem (Confluence) wird darüber hinaus relevantes Expertenwissen aus der digitalisierten, technischen Dokumentation per Link abrufbar. 

Proaktiv (Predictive Analytics). Ähnlich der reaktiven Fehlerinitialisierung und -erkennung wurde für die Umsetzung proaktiver Fehlerbehandlungen vorgegangen. Als Weiterentwicklung des reaktiven Ansatzes eingesetzt wurde versucht Assoziationsregeln und oder Schwellenwerte zu deklarieren, die Vorboten eines potenziellen Ausfalls sind. Erste proaktive Regeln liefern

bereits bei entsprechenden Datenmustern aussagekräftige Warnungen und werden

dem Nutzer ebenfalls über das eigene Dashboard mit entsprechender Confluence-Anbindung ausgegeben. Wirtschaftlich (Prescriptive Analytics). Aktuelle Forschung innerhalb des AutoCoP Projekts befasst sich mit der Weiterentwicklung aus den vorausgehenden Reifestufen der Datenaus­wertung. Um betriebswirtschaftliche Kennzahlen erweitert soll künftig auch eine wirtschaft­liche Abwägung hinsichtlich der optimalen Handlungsoption zum jeweiligen Zeitpunkt X

aus­gegeben werden können. Dies Bedarf allerdings großer Datenmengen und digital hinterlegter Erfahrungswerte, woran hiesig gearbeitet wird.

Quellennachweise: 

Etzion, O, Niblett, P, Luckham, DC (2011) Event processing in action. Manning Greenwich.

Aalst et al. 2012. „Process Mining Manifesto“. Business Process Management Workshops 2011, Part I, Lecture Notes in Business Information Processing 99:169–194.

Das BPM Dashboard bietet die Möglichkeit der deskriptiven Untersuchung des gesamten Produktionsprozesses auf Basis der gesammelten Daten. Durch den technischen Einsatz von Business Process Mining lassen sich komplexitätsarm bisher unbekannte Zusammenhänge erkennen. Diese werden u.a. durch eine Prozesskarte, Aktivitätanalysen der einzelnen Prozesse und Vergleichsparameter von Prozesszeiten ermöglicht. Der abgebildete Bereich zeigt die interaktive

Prozesskarte an, welche den Ablauf jeder Produktionseinheit je Prozesschritt visuell nachvollziehen lässt.

 

Das Live-Dashboard zeigt die Ergebnisse aus der Echzeitüberwachung der Maschinenkompo­nenten auf. Fehler oder Warnungen werden gemeldet, lokalisiert und aussagekräftig auf Basis der Rückmeldung aus der CEP-Einheit benannt sowie mit entsprechend hinterlegtem Experten­wissen verbunden. Eine tabellarische Aufarbeitung fasst die wichtigsten Informationen kompakt zusammen und bietet dem Anwender die Möglichkeit einer unmittelbaren Reaktion auf auftretende Ereignisse.

 

Neben den beiden Analysetools findet sich ebenso eine softwaretechnische Umsetzung der Wissensablage und visuellen -aufbereitung. Wurde ein Fehler oder eine Warnung erkannt, wird dem Nutzer über das Confluence Dashboard eine Fehlerbeschreibung und Problem­lösung geboten. Aktuell sind ebenso bereits hinterlegte Videos als Handlungsempfehlungen in Form einer Augmented Reality via Datenbrille abrufbar.

 



Ein zentraler Punkt bei der Entwicklung neuer Dienstleistungen ist die Definition der zugehörigen Prozesse. Zur Modellierung von Geschäftsprozessen stehen verschiedene Ansätze und Modellierungssprachen zur Verfügung. Zu den am häufigsten verwendeten Notationen zählen dabei Business Process Model and Notation (BPMN), die Ereignisgesteuerte Prozesskette (EPK) und Petri-Netze (Leimeister 2020). Neben generischen Ansätzen zur Modellierung von Geschäftsprozessen existieren auch spezifische Methoden zur Dienstleistungsmodellierung wie beispielsweise Service Blueprinting. Service Blueprints erfreuen sich in der Dienstleistungsforschung großer Beliebtheit, da sie es ermöglichen, (1) die Dienstleistung auf Aufgabenebene herunterzubrechen, (2) Abläufe zu analysieren und verbessern, (3) insbesondere das Zusammenwirken zwischen Dienstleister und Kunden aufzuzeigen und somit eine Verbesserung der Koordination ermöglichen, und (4) die „Kundenerfahrung“ zu analysieren.

Die Abbildung zeigt den (vereinfachten) Gesamtreferenzprozess der Dienstleistung. Startpunkt ist das Auftreten einer Störung an einer industriellen Anlage und der Prozess endet damit, dass die Störung behoben und die Technische Dokumentation aktualisiert wurde.

Quellennachweise:

Leimeister, J. M. (2020) Service-Modellierung.  Dienstleistungsengineering und-management, pp. 215-277. Springer


Mit der Modellierung potenzieller Geschäftsmodells, können mögliche organisationale, personelle und strategische Anpassungen abgeleitet werden. Dabei erfreut sich das Business Model Canvas großer Beliebtheit, da es übersichtlich alle notwendigen Bausteine eines Geschäftsmodells darstellt und somit eine systematische Vorgehensweiße ermöglicht (Osterwalder et al. 2011). Darüber hinaus hat eine Untersuchung des Teams um den St Gallener Forscher Oliver Gassmann 55 Geschäftsmodellvarianten identifiziert, die auf 90% der existierenden Geschäftsmodelle zutreffen (Gassmann et al. 2017). Diese können durch Rekombination und Anpassung AutoCoP als Vorlage dienen.

Systeme wie AutoCoP werden von Maschinen- und Anlagenbauern meist in Form einer Dienstleistung als zusätzliches Produkt neben der „Hardware“ angeboten. In solchen Fällen ist keine, bzw. keine umfassende, Änderung des Geschäftsmodells sowie der Unternehmensstrategie des Unternehmens erforderlich. Dementsprechend liegt der Fokus bei der Geschäftsmodellierung auf der Konzeptionierung des Ertragsmodells.

Industrieunternehmen, insbesondere in Hochlohnländern wie Deutschland, haben mit steigender Konkurrenz zu kämpfen und werden deshalb zunehmend mit der Kundenerwartung konfrontiert, Lösungsanbieter zu sein (Lusch, Nambisan 2015). Dieser Gedanke steht im Konflikt mit dem etablierten isolierten Vertrieb von Produkten und Dienstleistungen. Stattdessen werden Produkt und Dienstleistung zu kundenindividuellen Bündeln geschnürt, die eine definierte Lösung, bzw. Leistung versprechen. Deshalb wurden weitere Geschäftsmodellvarianten erarbeitet, um auch solche zukünftigen, disruptiven Marktanforderungen gerecht zu werden und die Nachhaltigkeit des AutoCoP-Systems zu gewährleisten.

Quellennachweise:

Osterwalder, A., Pigneur, Y., Oliveira, M.A.-Y., Ferreira, J.J.P. (2011) Business Model Generation: A handbook for visionaries, game changers and challengers. African journal of business management 5, 22-30 (2011)

Gassmann, O., Frankenberger, K., Csik, M. (2017) Geschäftsmodelle entwickeln. 55 innovative Konzepte mit dem St. Galler business model navigator. Carl Hanser Verlag GmbH Co KG

Lusch, R.F., Nambisan, S. (2015) Service innovation: A service-dominant logic perspective. MIS quarterly 39, 155-176

Forschungspartner

Förderung durch

Weitere Hinweise zum Webauftritt