Qualitätsabweichungen treten insbesondere beim Einfahren von Prozessen auf. Maßnahmen zur Optimierung der Qualität können jedoch nur ergriffen werden, wenn die Ursache der Abweichung bekannt ist. Weichen beispielsweise die Form- und Lagetoleranzen ab, muss das Prozessergebnis analysiert und eine Maßnahme zur Prozessoptimierung abgeleitet werden (siehe Bild 2). Wurde bei der Fehleranalyse beispielsweise eine hohe Werkstückabdrängung identifiziert, können etwa durch Reduzierung der Schnitttiefe die Fertigungstoleranzen wieder eingehalten werden.
Die Auswahl einer effektiven Maßnahme erfordert aktuell Fachpersonal mit langjähriger Erfahrung und bindet personelle Kapazitäten. Dies ist besonders in der Kleinserien- und Einzelteilfertigung problematisch, da die Prozesseinrichtung und -optimierung einen wesentlichen Teil der gesamten Produktionszeit beansprucht. Dies trifft insbesondere auf die Medizintechnik zu, bei der etwa Implantate und Prothesen häufig kundenspezifisch angefertigt werden. Dabei lassen sich Prozesseinstellgrößen nur eingeschränkt zwischen Bauteilvarianten übertragen, sodass die Fertigungsprozesse häufig neu eingerichtet werden müssen.
Hier setzt das neu entwickelte System zur Fehleranalyse an. Das System unterstützt das maschinenbedienende Personal bei der Einrichtung und Optimierung von Prozessen für individuell gefertigte Bauteile. Anstelle einer Messung einzelner Qualitätsmaße, wird hierbei die gesamte Bauteiloberfläche hochgenau gescannt und hinsichtlich charakteristischer Muster analysiert.
Analyse des Prozessergebnisses
Am Institut für Fertigungstechnik und Werkzeugmaschinen (IFW) Hannover wurde ein prototypischer Demonstrator eines Assistenzsystems zur Fehleranalyse entwickelt. In Anlehnung an das in Bild 2 dargestellte Handgelenksimplantat wurde hierzu ein Stirnfräsprozess eines zylindrischen Rohlings ausgewählt (Bild 3). In einem Schlichtprozess wird dabei die finale Bauteilqualität erzeugt, die mit den Prüfmaßen M1 und M2 kontrolliert wird. Erhöhter Werkzeugverschleiß, ein zu hoch eingestellter Vorschub sowie eine zu hoch eingestellte Schnitttiefe wurden als wesentliche Einflussfaktoren für Qualitätsabweichungen identifiziert. Während der Herstellung dieser Bauteile wurden Vorschubgeschwindigkeit vf sowie Schnitttiefe ap vollfaktoriell und dreistufig (niedrig bis hoch) und der Werkzeugverschleiß kontinuierlich (neu bis verschlissen) variiert.
Anschließend wurde die erzeugte Bauteiloberfläche mit einem Renishaw OSP60 Messsystem taktil in Quer- und Längsrichtung des Bauteils (X, Y) gescannt. Ein Scan entspricht dabei einer rund 25 mm langen Messreihe mit etwa 500 Messpunkten und kann als Funktion der Bauteilhöhe über die Bauteillänge dargestellt werden. Für jede der insgesamt 550 geschlichteten Flächen wurden 18 parallel zueinander liegende Scans durchgeführt.
Durch eine visuelle Analyse der erzeugten Daten wurde bestätigt, dass die drei untersuchten Einflüsse die Bauteilqualität unterschiedlich beeinflussen und jeweils eine charakteristische Unebenheit der Bauteiloberfläche verursachen (Bild 2 rechts). So führten erhöhte Schnitttiefen erwartungsgemäß zu einer höheren Werkstückabdrängung, während Werkzeugverschleiß Unebenheiten der Bauteiloberfläche verursachte. Bei der Überlagerung von zwei Effekten, wie etwa einem hohen Vorschub in Kombination mit hohem Werkzeugverschleiß, ist manuell nur noch eine eingeschränkte Interpretierbarkeit der Daten möglich.
Fehleranalyse und Klassifizierung mit neuronalen Netzen
Zur datenbasierten Unterstützung des Fachpersonals bei der Fehleranalyse wurde Maschinelles Lernen eingesetzt. Ein künstliches neuronales Netz wurde darauf trainiert, erhobene Messdaten entsprechend der vordefinierten Einflussfaktoren zu klassifizieren. Für die möglichen Einflüsse – Vorschub, Schnitttiefe und Werkzeugverschleiß – wurden jeweils drei Klassen definiert: „niedrig“, „normal“ und „hoch“, wobei nur „hoch“ als kritisch gilt.
Die gescannten Messpunkte entsprechen einer univariaten Zeitreihe. Zur Klassifizierung dieser Zeitreihen wurde ein Ansatz aus dem Bereich der Bildverarbeitung gewählt, da für diesen Bereich eine Vielzahl bewährter Modellarchitekturen und vortrainierter Modelle verfügbar ist. Der Einsatz vortrainierter Modelle ermöglicht dabei kürzere Trainingszeiten und höhere Genauigkeiten, bei einem geringeren Bedarf an Trainingsdaten. Die Messreihen wurden mittels Rekurrenzplot in Bilder der Größe 512 x 512 Pixel transformiert (Bild 4).
Ein Rekurrenzplot zeigt auf, wann Zustände einer Zeitreihe ähnlich oder wiederkehrend sind. Dadurch können Muster und Strukturen in Daten, wie etwa die Werkstückabdrängung, sichtbar gemacht werden. Der Plot besteht aus einer quadratischen Matrix, in der sowohl die x- als auch die y-Achse die Zeit (hier: Bauteillänge) darstellen. Die erzeugten Rekurrenzplots entsprechen der Eingangsgröße des neuronalen Netzes. Für das neuronale Netz wurde die Netzarchitektur ResNet18 mit ImageNet1k-Gewichten gewählt. Dieses vortrainierte Modell zeichnete sich bereits für andere Klassifizierungsaufgaben durch einen guten Kompromiss zwischen Modellkomplexität und Genauigkeit aus.
Im Rahmen einer Vorverarbeitung wurden die Rekurrenzplots normalisiert und auf die vom Netz erwartete Bildgröße von 224 × 224 Pixel skaliert. Im Gegensatz zu üblichen Klassifizierungsaufgaben, bei denen beispielsweise Bilder entsprechend des dargestellten Objekts zugeordnet werden, treffen bei dieser Klassifizierung stets drei Klassen zu. Daher wurde die Netzarchitektur angepasst, indem für jeden Einflussfaktor eine eigene Ausgabeschicht mit jeweils drei möglichen Klassen hinzugefügt wurde.
Das Modell wurde trainiert und anschließend auf Grundlage eines unabhängigen Testdatensatzes evaluiert. Die Ergebnisse sind in den Konfusionsmatrizen in Bild 5 dargestellt. Dabei zeigte sich, dass die unterschiedlichen Vorschübe und Schnitttiefen zuverlässig unterschieden werden konnten. Verwechslungen traten bei den Übergangen von „niedrigem“ zu „normalem“ sowie „normalem“ zu „hohem“ Werkzeugverschleiß auf. Diese Verwechselungen sind aus praktischer Sicht jedoch vernachlässigbar, da kritischer Werkzeugverschleiß in den getesteten Fällen korrekt erkannt wurde.
Das trainierte Modell sowie die Pipeline zur Datenvorverarbeitung wurden in eine cloudbasierte Anwendung integriert. Nach der Fertigung und Vermessung eines Bauteils werden der Prüfbericht und die eingestellten Prozessparameter in die Cloud hochgeladen, wo auch das Modell ausgeführt wird. Die gescannte Oberfläche und die Auswertung des Modells wird dem Bedienpersonal direkt über eine grafische Bedienoberfläche dargestellt. Die Anwendung wurde als Web-App entwickelt, sodass das Bedienpersonal über ein herkömmliches Tablet den Fertigungsprozess analysieren und bei Bedarf datengestützte Empfehlungen zur Prozessoptimierung erhalten kann.
Zusammenfassung
Das IFW entwickelte auf Grundlage von Maschinellem Lernen einen Demonstrator zur datengestützten Fehleranalyse bei Fräsprozessen. Bei Überschreitung der zulässigen Bauteiltoleranzen klassifiziert ein neuronales Netz die gescannte Bauteiloberfläche hinsichtlich der Einflüsse „erhöhter Vorschub“, „erhöhte Schnitttiefe“ sowie „kritischer Werkzeugverschleiß“. Das Bedienpersonal erhält somit im Fehlerfall eine entsprechende Empfehlung, welche Maßnahme ergriffen werden kann. Die Auswertung und Visualisierung erfolgen cloudbasiert. Die Ausweitung auf weitere Einflussfaktoren und Fertigungsprozesse wird zukünftig betrachtet. Der Demonstrator kann im Rahmen des Demonstrations- und Transferzentrums für KI in der Produktion „ProKI-Hannover“ am IFW besichtigt werden. Für nähere Informationen zu dem System oder bei Interesse an einer ähnlichen Umsetzung in Unternehmen, stellt die Seite www.proki-hannover.de wichtige Informationen zusammen.
Danksagung
Die Entwicklung des Systems erfolgte im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Demonstrations- und Transferzentrums für KI in der Produktion „ProKI-Hannover“.