Industrie 4.0 -
Automatisierungstechnik der Zukunft
Seit einigen Jahren ist der Begriff Industrie 4.0 ein oft gehörtes Schlagwort. Im allgemeinen steht er als Synonym für die vierte industrielle Revolution, bei der die reale und virtuelle Welt zu einem "Internet der Dinge" zusammenwachsen. Hintergrund ist vor allem eine sich ändernde Industrieproduktion, die durch eine zunehmende Individualisierung der Produkte und sehr flexible Produktionsprozesse charakterisiert ist. Hinzu kommt, mit den Worten des Bundesministeriums für Bildung und Forschung, "die weitgehende Integration von Kundinnen und Kunden sowie Geschäftspartnerinnen und -partnern in Geschäfts- und Wertschöpfungsprozesse und die Verkopplung von Produktion und hochwertigen Dienstleistungen, die in sogenannten hybriden Produkten mündet".
Konkret manifestiert sich der Begriff Industrie 4.0 unter anderem in einer gesteigerten Automatisierung der in einem Industrieunternehmen ablaufenden Prozesse. Voraussetzung ist die Entwicklung intelligenter, autonomer Überwachungs- und Entscheidungsprozesse, um die Abläufe in den Unternehmen quasi in Echtzeit steuern und optimieren zu können. Eng verbunden mit dem Begriff Industrie 4.0 sind die Themen "Smart Factory" und "Smart Production". Bei "Smart Factory" liegt der Fokus auf der Entwicklung intelligenter Produktionssysteme und -verfahren sowie auf der Realisierung verteilter und vernetzter Produktionsstätten. Oder, im Jargon der IT-Wissenschaft: die Integration adaptiver "Cyber-Physical Systems" in die Produktion. "Smart Production" beinhaltet unter anderem Themen wie die unternehmensübergreifende Produktionslogistik oder Mensch-Maschine-Interaktionen.
Um das Konzept Industrie 4.0 in der Praxis umzusetzen, sind große Datenmengen (Big Data) erforderlich, die in vielen Unternehmen zwar vorhanden, aber derzeit oft noch isoliert oder nur teilweise miteinander verknüpft sind. Erst die Analyse, Verarbeitung und intelligente Verknüpfung aller Daten ermöglicht es, Betriebsabläufe in den Unternehmen effizienter zu gestalten, weiß Prof. Dr. Katharina Morik vom Lehrstuhl für Künstliche Intelligenz an der TU Dortmund: "Ohne Analyse können große Datensammlungen zu Datenfriedhöfen verkommen." Dazu bedient man sich Instrumenten der Künstlichen Intelligenz (KI), die das maschinelle Lernen als automatischen Erwerb von Regeln aus Daten erlauben. Für das "Schürfen" nach Wissen in vorhandenen Daten - als "Data Mining" bekannt - gibt es mit dem "RapidMiner" der gleichnamigen Firma ein inzwischen weit verbreitetes Werkzeug, das keine Programmierung erfordert.
Big Data und Cyber-Physical Systems sind Themen des SFB 876, der in der Fakultät für Informatik der TU Dortmund angesiedelt ist. Dabei geht es unter anderem darum, Datenstromalgorithmen zu entwickeln, mit deren Hilfe man eingehende Datenströme in Realzeit analysieren kann. Im Sonderforschungsbereich wurde dazu mit "streams" ein Werkzeug entwickelt, mit dem sich Online-Prozesse leicht konfigurieren, parallelisieren und verteilt ausführen lassen. Die im SFB 876 erarbeiteten theoretischen Grundlagen wurden dann in Zusammenarbeit mit der SMS Siemag AG und der AG der Dillinger Hütte im Projekt einer realzeitlichen Prognose im Stahlwerk praktisch umgesetzt. Bei dieser Innovation handelt es sich um ein lernfähiges System, das anhand der Daten des Produktionsprozesses eine Feinjustierung der Produktion vornehmen kann und so den industriellen Prozess verbessert.
Die Dillinger Hüttenwerke, laut Dr. Dominik Schöne "größter europäischer Grobblechhersteller", fertigen jährlich rund 1,8 Mio. Tonnen Grobblech, das unter anderem zur Herstellung von Großrohren genutzt wird. Das zentrale metallurgische Aggregat im integrierten Hüttenwerk der Dillinger ist der BOF-Konverter (Basic Oxygen Furnace), in den Roheisen und Stahlschrott eingefüllt und sogenannte Schlackenbildner, wie zum Beispiel Kalk, zugegeben werden. Über eine Blaslanze wird Sauerstoff mit Überschallgeschwindigkeit in die Schmelze eingeblasen, wobei die Begleitelemente (z. B. Kohlenstoff, Phosphor, Schwefel) verbrennen und in die Schlacke sowie das Abgas übergehen. Ziel des BOF-Prozesses ist es, zum Ende des Sauerstoffblasens (Blasendpunkt) eine Stahlschmelze mit definierten Eigenschaften zu erhalten. Die relevanten Zielgrößen sind dabei die Abstichtemperatur, der Kohlenstoffgehalt und der Phosphorgehalt der Schmelze sowie der Eisengehalt der Schlacke.
Das datengetriebene Prognosemodell für den BOF-Konverter wurde mit dem Ziel entwickelt, die Vorhersagegenauigkeit der vier Zielgrößen zum Blasendpunkt zu verbessern. Zum Erfassen der Prozessdaten wurde ein PC in die Prozessautomation integriert, der 90 statische Prozessgrößen detektiert. Um die Vorhersagegenauigkeit weiter zu erhöhen, werden 36 dynamische Prozessgrößen erfasst. Dazu kommen weitere Sensoren aus den Bereichen Schwingung, Schall und Optik. Insgesamt kann das datengetriebene Prognosemodell auf 126 Prozessgrößen zugreifen.
Das neu entwickelte Prognosemodell kann nicht nur selbstständig aus großen Datenbeständen lernen und in Echtzeit vorhersagen, es steuert auch den Blasprozess, indem Korrekturvorschläge in Echtzeit ermittelt werden. Ein Vergleich mit den prognostizierten Zielwerten des konventionellen, metallurgischen Modells zeigt, dass das datengetriebene Modell die Temperatur zum Blasendpunkt deutlich genauer vorhergesagt. Außerdem kann das neue Modell im Gegensatz zum konventionellen Modell auch die anderen Zielgrößen vorherzusagen.
Die wirtschaftlichen Vorteile des datengetriebenen Prognosemodell sind vielfältig: Während sich die Stahlproduktion durch die Reduzierung der Nachblasrate und der Überblasrate erhöht, sinken die Prozesskosten und die Kosten für die Einsatzstoffe. Hinzu kommt ein geringerer Verschleiß der feuerfesten Konverterausmauerung, eine Erhöhung des Ausbringens von Stahl aus dem Konverter sowie eine Reduzierung von Personalkosten. Für den 190 t BOF-Konverter in Dillingen ergibt sich bei einer Stahlproduktion von jährlich 2 Mio. Tonnen durch die Reduzierung der Heizmittel und der Nachblasrate ein Einsparpotenzial von rund 500.000 Euro pro Jahr; dabei wurde eine verbesserte Treffergenauigkeit bei der Abstichtemperatur um 5°C angenommen.
Eine vorteilhafte Eigenschaft datengetriebener Prognosemodelle ist ihre Flexibilität. Die Modelle lassen sich mit vergleichsweise wenig Aufwand auf andere Anwendungen übertragen. Dies gilt sowohl für die Anwendung bei anderen Konvertern als auch bei anderen metallurgischen Aggregaten.
Das Thema Industrie 4.0 verspricht mit seinen neuen Automatisierungsmöglichkeiten für die Hersteller von Anlagen im Bereich der Hütten- und Walzwerkstechnik noch weitere Vorteile. Die in der Regel großen, komplexen und technologisch anspruchsvollen Anlagen umfassen das gesamte Portfolio der Energieversorgung sowie der Elektro- und Automatisierungstechnik. Die durchweg maßgeschneiderten Lösungen beinhalten zumeist technologisch individuell abgestimmte Prozessabläufe mit den entsprechenden Automatisierungslösungen. Deshalb, so Hubertus Schauerte von der SMS Siemag AG, Düsseldorf, "führen wir für alle unsere Anlagen vor der eigentlichen Inbetriebnahme umfangreiche Tests unserer Software durch, um auch höchsten Qualitätsanforderungen gerecht zu werden und kurze Inbetriebnahmezeiten zu gewährleisten". Im Vergleich zur bei Industrie 4.0 dargestellten Welt der Modelle gehe man sogar noch einen Schritt weiter: die reale physische Welt wird bei den Anlagentests durch eine virtuelle physische Welt ersetzt. Das Softwareengineering wird mit Hilfe einer Echtzeitsimulation der kundenspezifischen Anlagentechnik getestet.
Dazu wird das dynamische Verhalten der Regelstrecken, die kompletten funktionalen Zusammenhänge und die Technologie der Prozesse in Modellen abgebildet, die - auf einem Servercluster implementiert - die Simulation in Echtzeit ausführen können. Das so entstandene Netzwerk aus Komponenten der Automatisierungslösung und der Anlagensimulation kommt laut Schauerte aufgrund der heterogenen Struktur einem Internet der Dinge und damit der Basis zu den Überlegungen von Industrie 4.0 sehr nahe.
Beim Engineering der Simulationslösungen greift man schon heute automatisiert auf Daten aus anderen Engineeringprozessen zurück. So wird zum Beispiel die gesamte Simulation der physikalischen Prozessanbindung - im Normalfall mehr als 10.000 Signale - durch generische Prozesse erstellt. Solche Echtzeitsimulationen nutzt man übrigens nicht nur bei SMS Siemag, sondern auch beim führenden Rohranlagenhersteller SMS Meer in Mönchengladbach.
Als nächsten Entwicklungsschritt im Bereich der Prozess- und Produktionssimulationen kündigt Schauerte den Einstieg in die 3D-Welt an. Dabei werden zur Fertigung notwendige 3D-Konstruktionen nach automatisierter Vereinfachung direkt in die Simulationsmodelle eingebunden. Bemerkenswerter Weise nutzt man hierzu bekannte Lösungen aus einem anderen Umfeld der Informationstechnologie: Computer- und Online-Spiele, bei denen die virtuellen Welten und Simulationen in den vergangenen Jahren ein enorm hohes Qualitätsniveau erreicht haben. Schauerte dazu: "Hier sind Werkzeuge zur Abbildung komplexer Szenen und Abläufe sowie elementarer physikalischer Zusammenhänge entstanden, die sich unmittelbar in unsere Systeme zur Echtzeitsimulation der Anlagen einbetten lassen".
Bilder: R. Eberhard, messekompakt.de, EBERHARD print & mediena gentur gmbh
Quelle: Messe Düsseldorf