Die Vernetzung von Informatik und Produktion manifestiert sich in der umfassenden digitalen Datenproduktion und –bereitstellung und in den digitalen echtzeitfähigen Fabriken, der so genannten advanced Manufacturing, im gesamten Bereich Industrie 4.0 und auch in den cyber-physischen IT-Systemen. Trendbegriffe in diesem Bereich lauten Big Data, Data Mining, Maschinelles Lernen und auch Data Science. Mitschang und sein Team haben ihre Forschung angepasst, um die Fragestellungen von Big Data und Datenanalyse im jeweiligen industriellen Anwendungskontext bestmöglich zu beantworten.
Banken und Versicherungen, das Geschäftswesen, Technik und Wissenschaft – dies waren noch vor 20 Jahren die klassischen Anwendungsbereiche von Datenbanken und Informationssystemen. „Damals gab es das Internet in seiner heutigen Form noch nicht, Apps waren ein Fremdwort und die Technologie steckte in der Steinzeit“, erinnert sich Bernhard Mitschang, der seit 1998 den Lehrstuhl für Datenbanken und Informationssysteme am Institut für Parallele und Verteilte Systeme der Universität Stuttgart innehat. Die Wende kam durch das Internet der Dinge (Internet of Things, IoT).
„Das Internet und insbesondere das IoT haben Produktion und Informatik radikal zusammenwachsen lassen“, erklärt Mitschang. Dies spiegelt sich in einer fast vollständigen Vernetzung sowie in einer umfassenden digitalen Datenproduktion und –bereitstellung. Beispiele sind die vielen Social-Media-Anwendungen, aber auch die digitale, echtzeitfähige Fabrik, das so genannte advanced Manufacturing, der gesamte Bereich Industrie 4.0 und auch cyber-physische IT-Systeme.“
Mitschang selbst hatte früh Anteil an dieser Entwicklung. Schon kurz nach seiner Berufung an die Universität Stuttgart im Jahr 1998 trat er in Kontakt mit Prof. Engelbert Westkämper. Der war damals Sprecher des Sonderforschungsbereichs SFB 467 (Wandlungsfähige Unternehmensstrukturen für die variantenreiche Serienproduktion) und einer der Pioniere auf dem Forschungsgebiet advanced Manufacturing. „Seither kooperiere ich mit dem Maschinenbau“, sagt Mitschang. Auch bei der Graduate School of Excellence advanced Manufacturing Engineering“ (GSaME), dem ersten Exzellenzprojekt an der Universität Stuttgart, war er von Anfang an dabei und steht ihr seit 2014 als Sprecher vor.
Studiengang "Data Science" etabliert
Die digitale Transformation in der Industrie hat die Forschungsschwerpunkte des Lehrstuhls verändert. „Wir arbeiten heute an Themen der Datenbereitstellung, des Datenmanagements und der Datenanalyse, um die Anwendungen der Digitalisierung zu entwickeln und zu unterstützen. Die Trendbegriffe lauten Big Data, Data Mining, Maschinelles Lernen und auch Data Science.“ Den Herausforderungen, die sich hinter diesen „Buzz-Words“ verbergen, begegnen Mitschang und sein Team in zwei Richtungen. Zum einen passte der Lehrstuhl das Studienangebot an und etablierte den Bachelor-Studiengang „Data Science“, eine Rarität in Deutschland. Zum zweiten wurde die Forschung angepasst mit dem Ziel, die Fragestellungen von Big Data und Datenanalyse im jeweiligen industriellen Anwendungskontext bestmöglich zu beantworten.
Ein Beispiel dafür ist die Nachwuchsgruppe „IKT-Plattform für die Produktion“ in der GSaME, die seit 2017 von Dr. Peter Reimann geleitet wird. Im Fokus dieser Gruppe steht eine Informations- und Kommunikations (IKT)-Lösung, die nicht nur die Produktion, sondern die heterogenen, verteilten Informationssysteme im gesamten Unternehmen einbindet und zum Beispiel auch mobile Endgeräte integriert. Die Projekte werden im Austausch mit Industriepartnern wie Daimler, Festo, Trumpf oder Mann+Hummel definiert und unterstützt durch das individualisierte Qualifizierungsprogramm. Die Durchführung erfolgt gemäß der Qualitätsmaßstäbe der GSaME. „Dabei achten wir streng darauf, dass die Arbeiten nicht einfach nach dem Prinzip ‚let’s do it‘ gewählt und umgesetzt werden, sondern Relevanz für die Forschung haben“, betont Reimann.
IKT-Plattform für den gesamten Produktlebenszyklus
Schon früh entwickelte die Gruppe die „Stuttgart IT Architecture for Manufacturing“ (SITAM), die Unternehmen die Akquise, das Management und die Analyse von Daten ermöglicht. Aktuell werden die Möglichkeiten der Datenanalyse in SITAM erweitert. Industrial Analytics lautet das Stichwort, das darauf abzielt, Datenanalysen nicht nur in einzelnen Produktionsphasen, sondern über den gesamten Produktlebenszyklus hinweg zu implementieren. „Dadurch können wir die Artefakte wie Produkte, ganze Fabriken oder einzelne Maschinen besser verstehen und optimieren“, erläutert Reimann.
Abhängig von der Phase des Produktlebenszyklus, von den konkreten Daten sowie von der Zielsetzung der Analyse müssen ganz unterschiedliche Analysemethoden betrachtet und evaluiert werden. So können in der Phase Produktentwicklung heterogene Simulationsdaten analysiert werden, um Empfehlungen für die Verbesserung des Produktentwurfs herzuleiten. In der Phase der Produktion kann eine Analyse von Sensordaten aus Prüfständen die Fehlerdiagnose bei defekten Produkten unterstützen. Kommt es in der Phase der Nutzung zu Qualitätsproblemen, kann eine Analyse der Fehlerursachen dem Kundendienst wertvolle Informationen liefern, um rechtzeitig Reparaturmaßnahmen oder Rückrufaktionen einzuleiten. „Bei jeder dieser Problemstellungen fragen wir spezifisch und praxisnah, welche Datenvorverarbeitungstechniken und Analysemethoden für welche Arten von Daten eingesetzt werden sollten und wie diese Methoden in komplexen Analyseprozessen kombiniert werden müssen“, erklärt Reimann. „Interessant ist zudem, dass die spezifischen Charakteristika von industriellen Daten zu einigen grundlegenden Forschungsfragen führen, die so in der wissenschaftlichen Literatur noch nicht betrachtet wurden.“ Hierbei spielt insbesondere die Nutzung von Domänenwissen eine Rolle, um Datencharakteristika zu adressieren, die sich beispielsweise aus der Komplexität und Variantenvielfalt von Produkten ergeben.
Firmen wissen oft gar nicht, welche Daten ihr 'Datensee' überhaupt umfasst, da diese unzureichend beschrieben sind.
Rebecca Eichler
Durchblick im Datensee
Grundlage für eine solche ganzheitliche Analyse sind so genannte Data Lakes, hoch skalierbare Datenspeicher, in welche die Rohdaten einfließen, die entlang der Wertschöpfungskette entstehen. Das macht Data Lakes zu einer sehr flexiblen Grundlage für die Datenanalyse. Das Problem dabei: „Firmen wissen oft gar nicht, welche Daten ihr ‚Datensee‘ überhaupt umfasst, da diese unzureichend beschrieben sind“, sagt Doktorandin Rebecca Eichler. Um die riesigen Datenmengen systematisch zu speichern, zu verwalten und damit einen Mehrwert zu schaffen, muss unter anderem dokumentiert werden, welche Datenvorhanden sind, was sie beschreiben, welche Qualität sie haben, wo sie herkommen und wer darauf zugreifen darf. Man braucht also Daten über die Daten, so genannte Metadaten, die deren Verwaltung unterstützen. Genau diesem Metadatenmanagement widmet sich Eichler in ihrem Promotions-Projekt „MetaMan“(Betreuer Dr. Holger Schwarz), das sie gemeinsam mit Bosch bearbeitet. „Die Zusammenarbeit mit Bosch ist super, so bekomme ich Einblicke, was die tatsächlichen Herausforderungen in der Industrie sind“, freut sich die Doktorandin. Die Fragestellung geht dabei über Data Lakes hinaus und umfasst das gesamte Unternehmen. „Bisher hat sich das Metadatenmanagement auf einzelne Teilaspekte beziehungsweise Unternehmensbereiche bezogen. In unserem Projekt zielen wir auf Techniken und Konzepte ab, um ein Metadatenmanagement für die gesamte Unternehmenslandschaft zu entwerfen, so dass beispielsweise Daten abteilungsübergreifend verfügbar gemacht werden können. Pate stehen dafür Datenmarktplätze, die es zwischen Unternehmen bereits gibt. Vorstellen kann man sich diese wie eine Plattform, welche den Nutzer*innen mit Hilfe der Metadaten ermöglicht, Daten zu finden, zu verstehen, auf diese zuzugreifen und Daten bereitzustellen. Überträgt man dieses Konzept auf den unternehmensinternen Bereich, werden auf dem Marktplatz oftmals sensiblere Daten gehandelt. „Daher haben Fragen der Transparenz und der Compliance ein ganz anderes Gewicht“, erklärt Eichler. „Über den Datenkatalog hinaus muss auf dem Marktplatz in dem Fall also zum Beispiel geregelt sein, wer die Daten zur Verfügung stellen beziehungsweise nutzen darf, unter welchen Bedingungen dies zu geschehen hat und wer dies genehmigt. Für diese Fragen versuchen wir, ein grundlegendes gemeinsames Verständnis zu entwickeln.“
Baukasten für die Industrie
Ganz konkrete Vorschläge für die verarbeitende Industrie entwickelte das Projekt „Industrial Communications for Factories (IC4F)“, ein Leuchtturmprojekt mit 14 Partnern, das durch das Bundesministerium für Wirtschaft und Energie (BMWi) mit 13 Millionen Euro gefördert wurde. „Das ist viel für ein Informatikprojekt“, sagt Dr. Pascal Hirmer und erklärt auch gleich, warum: „Industrie 4.0 ist für die Firmen eine riesige Herausforderung, gerade für kleinere und mittlere Unternehmen. Es gibt sehr viele neue Technologien, heterogene Infrastrukturen, die Anforderungen des Datenschutzes und zudem ist das Ganze zeitaufwändig und teuer. Daher entwickelten wir im Projekt IC4F eine Referenzarchitektur mit dem Namen iRefA (industrial Reference Architecture), mit deren Hilfe die Firmen sichere, robuste und echtzeitfähige Kommunikationslösungen erarbeiten können.“ iRefA funktioniert wie ein Legobaukasten, dessen Bausteine aus Hardware- und Softwarekomponenten, Netzwerktechnologien, Sicherheitsmodulen und anderem mehr bestehen. „Die Unternehmen beschreiben in Anforderungsworkshops ihren konkreten Bedarf und unsere Plattform schlägt teilautomatisiert Bausteine vor, die am besten zur geplanten Anwendung passen. Die Projektmitarbeiter*innen können so zwischen den besten Alternativen entscheiden, welche Bausteine sie tatsächlich verwenden.“
Als Beispielanwendung fungierten autonome Transportfahrzeuge wie etwa Gabelstapler, die die Firma Bosch in der ARENA 2036 sowie die Firma STILL in Hamburg entwickeln. Ein solches Transportfahrzeug muss mit dahinterliegenden Software-Systemen (zum Beispiel Datenbanksystemen) und seiner Umgebung kommunizieren können, um beispielsweise seine Routen zu planen und Kollisionen zu vermeiden. „Eine der Anforderungen lautet in dem Fall, dass das Fahrzeug echtzeitnah reagieren kann, dies erfordert ein stabiles und schnelles Netzwerk“, erläutert Hirmer. „Mit Hilfe von iRefA konnten wir der Firma dafür den 5G-Standard empfehlen, da 4G zu langsam gewesen wäre und Wifi zu instabil. Ebenso schlug die iRefA eine bestimmte, hoch skalierbare Datenbank als Baustein für die Datenverwaltung vor.“ Die iRefA soll zukünftig als DIN-Spezifikation standardisiert werden.
Industrie 4.0 ist für die Firmen eine riesige Herausforderung; gerade für kleine und mittlere Unternehmen.
Dr. Pascal Hirmer
Digitalisierung schreitet weiter voran
IC4F soll als Leuchtturmprojekt in weitere Forschungsprojekte münden. Das sei auch deshalb wichtig, weil die Digitalisierung in der Industrie weiter voranschreiten wird, meint Bernhard Mitschang. Gerade im Mittelstand fehle dafür noch viel Kompetenz. „Deshalb müssen wir Digitalisierungsthemen pushen und gute Leute ausbilden, die die digitale Transformation in industrielle Anwendungen bringen, um die Abläufe zu optimieren.“
Institut für Parallele und Verteilte Systeme Datenbanken und Informationssysteme
Universitätsstr. 38, 70569 Stuttgart
Telefon: +49 711 68588449, E-Mail