top of page
DigBiz Leader

Predictive Quality: Daten liefern völlig neue Hebel



In Fertigungsstraßen steckt enormes Potenzial für Effizienz, Kosten und Qualität. Um das zu nutzen, entwickeln AMAG-CIO Werner Aumayr und sein Team KI-Modelle für die konkrete Praxis.



Das Leben ist kein High-Tech-Labor – auch nicht für Künstliche Intelligenz. Im echten Leben, wie es zum Beispiel in Produktionsbetrieben herrscht, hat sie es nicht mit blitzblanken, brandneuen Anlagen zu tun, die auf Daten-Highways ungebremst miteinander kommunizieren. Auch KI muss quasi in den Blue-Collar-Modus schlüpfen und zwischen Gusskessel, Kaltwalzen und Maschinen unterschiedlichster Hersteller und unterschiedlichsten Alters ihre Wirkung entfalten. So wie in einem der heimischen Paradefertigungsunternehmen, der AMAG Austria Metall AG. Dort erfährt der Begriff Machine Learning einen ganz wortwörtlichen Sinn. Einen, bei dem es nicht um die Entwicklung künftiger Geschäftsmöglichkeiten geht, sondern um konkreten, schnellen Nutzen in der Produktionsstraße – und Schnelligkeit ist dabei zweifach gefragt: nicht in der Zukunft, sondern heute, im „Hier und Jetzt“ und das zugleich in Echtzeit.


„Wir haben bewusst nicht mit großangelegten Big Data Use Cases begonnen“, sagt Werner Aumayr, langjähriger Head of Information Technology and Digitalization bei Österreichs größtem Aluminiumkonzern mit Sitz in Ranshofen. „Wir haben mit 10 sehr konkreten Fragestellungen identifiziert, wo die Produktion datengetrieben optimiert werden kann, und haben uns dann auf das Thema Predictive Quality fokussiert.“


Schon geraume Zeit vor der Pandemie startete man dazu den ersten PoC. Die Erkenntnisse daraus lieferten die erste Grundlage, auf der heute der studierte Mathematiker Aumayr und seine Organisation KI-basierte Rechenmodelle, inklusive Machine Learning, zu diesem Thema entwickeln. Deren Ziel: Im Fertigungsprozess datenbasiert schnelle Entscheidungen treffen zu können, die bislang nicht möglich waren. Weil sich Qualitätsmängel in der Regel erst dann erkennen ließen, wenn es schon zu spät war, sprich bei der Endprüfung. Aber gerade darin, Qualitätsabweichungen möglichst frühzeitig zu erkennen, steckt für ein Fertigungsunternehmen enormes Potenzial. Und das gilt umso mehr, wenn die Kunden, so wie bei der AMAG, unter anderem die führenden globalen Player in High-Tech-Industrien wie der Luft- und Raumfahrt sind … und entsprechend hohe Qualitätsanforderungen haben.


Herr Aumayr, welche Potenziale lassen sich durch Predictive Quality im Produktionsprozess freisetzen?


Je früher ich feststellen kann, dass bei der weiteren Bearbeitung die geforderte Qualität nicht mehr erzielt werden kann, desto früher kann ich die Produktion abbrechen und mir die weiteren Verarbeitungsschritte sparen … und damit einen beträchtlichen Aufwand an Material, Zeit und Kosten.

Den frühestmöglichen Zeitpunkt zu finden, ist allerdings nicht einfach. Es gibt Fehler, etwa beim Material, die sich von Anfang bis Ende durchziehen und sich physikalisch zumeist erst sehr spät feststellen lassen. Zunächst gilt es aber überhaupt einmal herauszufinden, welche Faktoren wirklich qualitätsbeeinflussend sind – und da lässt sich fast nichts ausschließen. Auch die technologischen ExpertInnen, die das physikalische Modell und die physikalischen Prozesse tiefgreifend verstehen, wissen nicht immer, woran es letztlich liegt, dass auf einer Fertigungsroute die Qualität besser wird als auf einer anderen, obwohl das Material und die Rahmenbedingungen identisch sind. Da erlebt man durchaus Überraschungen.


Wie setzen Sie Big Data Analytics und KI bei der AMAG konkret ein, um solche Überraschungen künftig möglichst zu vermeiden?


Ausgangspunkt ist die Analyse der historischen Daten. Aufgrund der geprüften Endqualität wissen wir, was unsere besten Produktionen waren und vergleichen die Parameter auf den Fertigungsrouten: Maschinenkonfigurationen, Temperatur, Druck, Spannungen von Bändern, Gussparameter und vieles mehr. Da hat man es zunächst einmal mit einer Vielzahl aller möglicher Varianten zu tun, aus denen es Kombinationen, Wahrscheinlichkeiten und kausale Zusammenhänge herauszufiltern gilt. Und diese Ergebnisse lassen wir in ein KI-Modell einfließen, das nicht retrospektiv analysiert, sondern beim Produktionsvorgang in Realtime anhand der tatsächlich gemessenen Daten die Anfangsparameter mit den Endparametern vergleicht, Korrelationen herstellt, problematische Parameter erkennt und im Notfall quasi schreit: Achtung! Bitte anschauen! Darüber hinaus ist das Ziel, dass sich unsere Modelle über Machine Learning selbst weiterentwickeln und zusätzliche Parameter identifizieren und integrieren, die wir bislang noch gar nicht auf dem Schirm hatten.


Wo stecken dabei die größte Herausforderung und die Komplexität?


Um tatsächlich aussagekräftige Erkenntnisse und Entscheidungsgrundlagen zu bekommen, brauche ich nicht nur die entsprechenden Daten, sondern muss sie in Beziehung zueinander setzen.

Aus den Messdaten am Shopfloor kenne ich bei einem Produktionsvorgang beispielsweise den Luftdruck zu einem bestimmten Zeitpunkt, oder weiß, wann das Warmwalzen stattgefunden hat, ich weiß aber nicht, welcher Auftrag mit welchem Material in welcher chemischen Zusammensetzung auf dieser Maschine gerade bearbeitet wird. Dazu muss ich die Shopfloor-Daten mit den Auftragsdaten aus dem SAP-System und mit den Materialdaten aus dem Qualitätssystem verschränken. Und diese Daten werden nicht nur aus unterschiedlichsten Quellen, sondern auch in extrem unterschiedlicher Frequenz geliefert: Transaktionale Daten entstehen vielleicht im Stundentakt – etwa, wenn ein Auftrag ausgeschrieben und eingesteuert wird – und werden periodisch abgerufen, die großen Mengen an Messwerten und Sensordaten hingegen werden permanent in Echtzeit gestreamt. Bei einer Qualitätsanalyse, die alle 10 Minuten passiert, diese großen Mengen an heterogenen Daten unter einen Hut zu bringen, ist eine ziemliche Herausforderung.


In Zeiten des Data Driven Business ist das Zusammenführen von Daten fast überall ein großes Thema. Inwieweit gibt es hier schon KI-Tools mehr oder weniger out oft he box, die dabei helfen, die Komplexität in den Griff zu bekommen?


Es gibt immer mehr intelligente Tools, die dabei unterstützen, die Beziehung zwischen Daten herzustellen, aber auch die muss man zunächst einmal intensiv lehren. Und das ist nicht so simpel, weil da auch viele unsaubere Daten gesammelt werden. Wenn der Sensor eine Stunde lang keinen Wert liefert, bedeutet das nicht, dass der Wert Null ist, sondern, dass dies ein Ausreißer ist, der nicht berücksichtig werden darf. Es gibt fertige Algorithmen, die solche Probleme erkennen: Diese Datensätze schauen nicht astrein aus, da könnte die Verbindung zum Sensor unterbrochen gewesen sein oder ähnliches. Und die dann auch entsprechende Mechanismen vorschlagen – etwa den betreffenden Wert durch den Mittelwert der letzten 10 Minuten zu ersetzen.

Das permanente Interpretieren und tatsächliche Bereinigen der Daten wird einem jedoch noch nicht wirklich abgenommen.

Das heißt, es braucht dafür MitarbeiterInnen mit entsprechenden Skills. Wie lassen sich die aufbauen?

Nur schwer – schon das Finden der MitarbeiterInnen ist eine extreme Herausforderung. Als klassischer Fertigungsbetrieb, der noch dazu in keinem großen Hotspot angesiedelt ist, ist man als potenzieller Arbeitgeber für junge, neue Köpfe im Datenmanagement per se einmal nicht allzu interessant, schon gar nicht für Data-Science-Gurus. Die streben in erster Linie in coole Startups. Da braucht es eine Portion Kreativität und Engagement, um – so wie wir das geschafft haben – ein eigenes mehrköpfiges Team aus Data Engineers und Data Scientists aufzubauen, das sich punktgenau mit Data Analytics beschäftigt. Damit ist es aber nicht getan. Wenn man als Unternehmen glaubt, dass man bei diesen Leuten dann einfach alle Daten einwirft und fertige Lösungen zurückbekommt, dann hat man eine komplett falsche Erwartungshaltung. Es ist für alle Bereiche ein mühsamer Prozess, bis all die Daten einmal in einem analysierbaren Zustand vorliegen.

Für die Analytics solcher Datenmengen braucht es auch eine entsprechende Infrastruktur. Was musste in diese Richtung aufgebaut werden?


Eine entsprechende Big-Data-Infrastruktur für die Aufbereitung, Verarbeitung, Verschränkung und Analyse der Daten war natürlich von Anfang ein zentrales Thema des Projekts. Wir haben diese Infrastruktur allerdings nicht selbst aufgebaut, sondern beziehen die dafür nötigen Ressourcen aus der Cloud. Dort haben wir sie wesentlich kostengünstiger zur Verfügung, weil wir sie nicht permanent benötigen, sondern beispielsweise drei Tage lang für eine Analyse und dann eine Weile nicht mehr.


Gab es Bedenken, die Daten in die Cloud zu legen?

Nicht wirklich. Puncto Sicherheit erleichtert uns die Cloud das Leben sogar erheblich, weil die großen Player die Daten mit Verschlüsselungen und hohen Security Standards viel besser schützen als man das selber je könnte.

Für uns ist das entscheidende Kriterium, dass wir in einer von uns gemanagten Cloud unsere Daten selber in der Hand haben, um sie für künftige Fragestellungen und Rechenmodelle flexibel verwertbar zu machen.

Und das ist bei Microsoft oder Amazon möglich. Natürlich sind die großen Anlagenhersteller als Service Provider auch daran interessiert, solche Analysen in ihrer eigenen Cloud zu fahren, aber die schauen dann dabei mit. Ich hätte es letztlich nicht in der Hand, dass unsere Daten nur für die Betriebsoptimierung unserer eigenen Maschinen eingesetzt werden, oder ob sie auch Mitbewerbern zu Gute kommen.

Gibt es Aspekte oder auch Fallstricke, die man sich bei solch einer Initiative bewusst machen sollte?


Ein solcher Aspekt ist sicher die Verifizierung der Analyse. Es ist ja nicht gesagt, dass Zusammenhänge tatsächlich kausal sind, oder ob nur eine zufällige Korrelation besteht. Um das zu klären, muss man die Analyseergebnisse testen: Verändern sie sich tatsächlich wie angenommen, wenn man die entsprechenden Parameter ändert? Ein Knackpunkt dabei ist, dass man überhaupt die Zeit und die Gelegenheit hat, das gründlich zu testen. Wenn beispielsweise auf einer Maschine eine Parameter-Konstellation auftritt, die kritisch für die Qualität sein könnte und ich dann dort zwei Tage lang keine Produkte mit bestimmten Qualitätsanforderungen fertige, bis der Anlagenzustand wieder einschwenkt, kann ich nicht sichergehen, ob es wirklich eine deterministische Abhängigkeit gibt. Und ein anderer Aspekt, den man sich auch bewusst machen muss: Nicht jeder physikalische Parameter lässt sich beliebig ändern. Vielleicht ist die einzige Optimierungsmöglichkeit dann, zum Beispiel die Produktionsreihenfolge zu ändern. Ja, Daten liefern – zum Teil völlig neue – Grundlagen für rasche Entscheidungen, treffen muss man sie jedoch selber.



Von Michael Dvorak; Fotos: Lisa Resatz

Comments


bottom of page