nach oben
Meine Merkliste
Ihre Merklisteneinträge speichern
Wenn Sie weitere Inhalte zu Ihrer Merkliste hinzufügen möchten, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, registrieren Sie sich bitte im Hanser Kundencenter.

» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.
Ihre Merklisten
Wenn Sie Ihre Merklisten bei Ihrem nächsten Besuch wieder verwenden möchten, melden Sie sich bitte an oder registrieren Sie sich im Hanser Kundencenter.
» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.

« Zurück

Ihre Vorteile im Überblick

  • Ein Login für alle Hanser Fachportale
  • Individuelle Startseite und damit schneller Zugriff auf bevorzugte Inhalte
  • Exklusiver Zugriff auf ausgewählte Inhalte
  • Persönliche Merklisten über alle Hanser Fachportale
  • Zentrale Verwaltung Ihrer persönlichen Daten und Newsletter-Abonnements

Jetzt registrieren
Merken Gemerkt
16.09.2019

Herausforderungen bei Datenerfassung und Datentransport in bestehenden Produktionsumgebungen (Teil 2)

Künstliche Intelligenz, Maschinendaten, Algorithmen, Effizienz, Geschäftsmodelle

Die Nutzung von Maschinendaten in der spanenden Fertigung birgt großes Potenzial für viele Anwendungen. Jedoch bilden die Datenerhebung, Weiterverarbeitung und Speicherung noch große Herausforderungen für die Anwender in der Produktionstechnik. Das PTW zeigt eine aktuelle Übersicht zur Datenerfassung sowohl bei Nachrüstung als auch bei Neuanschaffung von Werkzeugmaschinen.

Die Grundlage für den Einsatz innovativer Analysemethoden durch beispielsweise Maschinelles Lernens und Künstlicher Intelligenz (KI) bilden qualitativ hochwertige Daten. Um kostengünstig und robust das größtmögliche Potenzial für die Anwender in der Produktionstechnik auszuschöpfen, gilt es primär, bestehende Datenquellen zu nutzen. Dabei werden als Datenquellen die eingesetzten Maschinen, die Prozesse mit den dazugehörigen Metadaten (über die beteiligten Maschinen, Werkstücke und Akteure) in Kombination mit Daten aus der Produktionsplanung und -steuerung (PPS) sowie Wartung und Qualitätssicherung zum Trainieren der KI genutzt. Das PTW der TU Darmstadt fokussiert unter anderem in einer bestehenden Produktionsumgebung (Brownfield) die wissenschaftliche Untersuchung von Datenerfassungsmethoden aus unterschiedlichen Steuerungen von Werkzeugmaschinen und Industrierobotern unter Einbeziehung nachgelagerter Qualitätssicherungsprozesse.

Maschinendatenerfassung in Brownfield-Umgebungen

Die Werkzeugmaschinen generieren während ihres Einsatzes große Datenmengen zur Steuerung und Regelung der Maschine, die aber nicht dauerhaft gespeichert werden. Um über die heutigen Hauptanwendungen wie beispielsweise der vorbeugenden Instandhaltung hinaus weitere Potenziale zu schöpfen, stellt sich die Herausforderung, die Daten aus den Maschinen mit einer möglichst hohen Abtastrate zu erfassen. Für die Datenerfassung bieten sich drei mögliche Wege, die sich hinsichtlich des Integrationsaufwands und erreichbarer Abtastfrequenz unterscheiden (Bild 1).

Bild 1: Gegenüberstellung der verschiedenen Möglichkeiten zur Maschinendatenextraktion im Brownfield (© PTW)

In den Maschinensteuerungen vorinstallierte OPC-UA-Server (OPC UA ist ein Standard zum Datenaustausch, der nicht nur Transport, sondern auch Selbstbeschreibung der Datenpunkte bietet) ermöglichen es, mit geringem Integrationsaufwand auf maschineninterne Variablen zugreifen zu können. Für den Zugriff sind lediglich die jeweiligen Lizenzen der Steuerungshersteller notwendig. Je nach zur Verfügung gestellten Leistung der Steuerungs-Hardware konnten in den Untersuchungen am PTW Abtastintervalle mittels OPC UA im Bereich von 100 bis 200 ms erreicht werden. Mögliche Anwendungen sind beispielsweise die Überwachung von Energieverbräuchen von Maschinen oder das Auslösen von Alarmmeldungen. Mittels vom Steuerungshersteller angebotenen Programmierschnittstellen und speziell dafür entwickelter Gateway-Hard- und -Software können Abtastintervalle im Bereich von 10 bis 15 ms erreicht werden.

Softwarelösungen für eine solche Aufzeichnung werden bereits von verschiedenen Unternehmen kommerziell angeboten. Die Software läuft dabei typischerweise auf einem direkt an der Maschine installierten Industrie-PC (häufig als Edge-PC bezeichnet) um die Steuerung in ihrer primären Aufgabe nicht zu behindern. Der Aufwand für die Integration ist hierbei höher als bei Ausnutzung eines Standards wie OPC UA, kann aber durch Verwendung existierender Softwarelösungen für den Anwender deutlich reduziert werden. Kosten für Lizenzen zur Nutzung der Schnittstellen des Steuerungsherstellers sowie des Gateways vom Drittanbieter bilden den monetären Erweiterungsaufwand.

Vorhersagen bezüglich der Bauteilqualität erfordern Daten, welche mindestens in der Größenordnung des Interpolationstakts (IPO-Takt) der Maschinensteuerung zur Verfügung gestellt werden müssen. Dieser hat in der Regel eine Größenordnung von 1 bis 4 ms. Um die Daten aus der Steuerung äquidistant (mit konstantem zeitlichen Abstand) und hochfrequent aufzuzeichnen, ist die Integration in das Echtzeit-Bussystem eine Variante. Jedoch erfordert dies die Miteinbeziehung des Maschinenherstellers, da unter anderem das SPS-Projekt und Maschinendaten angepasst werden müssen, wodurch der Integrationsaufwand im Vergleich zu den beiden zuvor erwähnten Lösungen deutlich höher ist.

Die dargestellten Ansätze unterscheiden sich in den erreichbaren Abtastfrequenzen. Setzt man auf Standards wie OPC UA, sind prozessübergreifende Analysen unter Einbeziehung vieler unterschiedlicher Komponenten und Sensorwerte möglich. Hier ist der Aufwand zur Datenerfassung gering. Möchte man hingegen einzelne Prozesse detailliert analysieren und benötigt dafür hohe Abtastraten, steigt der Aufwand für die Datenerfassung deutlich an. Die Herausforderung für den Anwender ist es, für das gewünschte Ziel nur den notwendigen Aufwand zu wählen.

Datentransport und -ablage

Nachdem die Maschinen und Anlagen die Daten verfügbar machen, gilt es im nächsten Schritt die Daten zu transportieren und je nach Verwendungszweck abzuspeichern. Dabei können verschiedene Ansätze verfolgt werden.

Bild 2: Möglichkeiten für den Datentransport und die Datenablage abhängig von der gewählten Analyseart:
(1) Lokale Analysen, (2) Batch-Analysen, (3) Echtzeit-Datenstrom-Analysen (© PTW)

Im lokalen Ansatz (Bild 2 (1)) werden die Daten auf den Edge-PCs gespeichert. Dabei sind Analysen auf die jeweilige angebundene Maschine beschränkt.

Für umfangreichere Analysen über mehrere Maschinen und Prozesse hinweg sowie für das sogenannte »Trainieren« von KI-Modellen müssen die Daten an eine zentrale Stelle weitertransportiert werden. Für den Datentransport bieten sich die Protokolle und Standards OPC UA, MQTT, HTTP oder DDS an. Für Batchweise Analysen (Bild 2 (2)) eignet sich eine Speicherung der gesendeten Daten in einer Cloud. Diese zentrale Datenablage ermöglicht eine ganzheitliche Datenanalyse und bietet in der Regel genug Rechenleistung um KI-Modelle zu trainieren.

In Ansatz Streaming Analytics (Bild 2 (3)) werden die Daten in Echtzeit beim Eintreffen direkt verarbeitet. Die Daten werden maximal für einen begrenzten Zeitraum zwischengespeichert, damit die Entscheidungs-Regelwerke auch, in begrenztem Umfang, auf historische Daten zugreifen können. Durch den begrenzten Zeitraum, der im Speicher vorgehalten werden muss, und die danach meist stattfindende Datenaggregation, ist der Speicherbedarf dieses Ansatzes geringer. Zum Trainieren von KI sind allerdings initial trotzdem große Datenmengen zu speichern.

Die zu wählende Variante für die Art und Platzierung der Analyseintelligenz hängt, wie schon die Datenerfassung, davon ab, welches Ziel die Analyse verfolgt. Sollen lokale Phänomene untersucht werden oder ist ein maschinenüberspannender Prozess das Untersuchungsobjekt? Auch die Verfügbarkeit von Rechenleistung fließt mit in die Entscheidung ein.

Ausblick

Alle aktuell am Markt verfügbaren Lösungen zeichnen sich entweder durch den hohen notwendigen Aufwand zur Integration aus oder liefern nicht die notwendige Abtastrate zur Vorhersage der Bauteilqualität. Daher werden am PTW gemeinsam mit Partnern neue Ansätze zur Akquise hochfrequenter Echtzeitdaten entwickelt und getestet.

Die Autoren dieses Beitrags

Prof. Dr.-Ing. Matthias Weigold leitet seit 2019 gemeinsam mit Prof. Abele und Prof. Metternich das Institut für Produktionsmanagement, Technologie und Werkzeugmaschinen (PTW) der TU Darmstadt. m.weigold@ptw.tu-darmstadt.de

Prof. Dr.-Ing. Joachim Metternich ist Institutsleiter des PTW Darmstadt. j.metternich@ptw.tu-darmstadt.de

Benjamin Brockhaus, M. Sc., ist wissenschaftlicher Mitarbeiter am PTW Darmstadt. b.brockhaus@ptw.tu-darmstadt.de

Alexander Fertig, M. Sc., ist wissenschaftlicher Mitarbeiter am PTW Darmstadt. a.fertig@ptw.tu-darmstadt.de

Zwei weitere Artikel folgen, Artikel 1 ist bereits erschienen.

In dieser Artikelserie wird anhand von Beispielen aus Forschung und Praxis das erfolgreiche Vorgehen bei der Implementierung von KI in der Produktion aufgezeigt.

  • Im 1. Teil wurden Anwendungsfelder der KI in der Produktion und ihr Beitrag zur Effizienzsteigerung aufgezeit.
  • Im 3. Teil wird aufgezeigt, inwiefern der Werkzeugverschleiß im Prozess diagnostiziert und vorhergesagt werden kann.
  • Im 4. Teil wird ein Anwendungsfall zur ganzheitlichen Fabriksteuerung mittels innovativer Datenanalyse am Beispiel der ETA-Fabrik der TU Darmstadt vorgestellt (Greenfield-Ansatz).

Unternehmensinformation

TU Darmstadt (PTW) Institut für Produktionsmanagement, Technologie und Werkzeugmaschinen

Otto-Berndt-Str. 2
DE 64287 Darmstadt

Weiterführende Information
Basics