Update

nebumind in the news again – “Für die Digitalisierung braucht man eine Vision, aber zunächst keinen Masterplan”

21/09/2020

Die Composites for Europe eine der führenden Messen für Innovationen im Bereich Composites, Technologien und Anwendungen in Europa. Im Vorfeld der Messe, wurde Franz zu nebumind, unserem Mehrwert für die Composite Industrie und unserer Sicht auf die wachsende Digitalisierung der Fertigungsindustrie in Deutschland befragt.

Pressemitteilungen

„Für die Digitalisierung braucht man eine Vision, aber zunächst keinen Masterplan“, Composites for Europe

07.09.2020

 

Franz Engel ist CEO und Gründer des Startups nebumind. Das Unternehmen will Produktionen dabei helfen, die Qualität ihrer produzierten Bauteile zu analysieren, die Faktoren zu verstehen, die die Qualität beeinflussen, und die Fertigungsparameter zu optimieren. Im Interview erläutert er, welche Rolle diese Angebote für die Composite-Branche spielen und wie er den Digitalisierungsgrad der Industrie in Deutschland einschätzt.

 

Herr Engel, nach mehreren Jahren bei einem führenden Unternehmen der Luftfahrttechnik, haben Sie den Schritt in die Selbstständigkeit gewagt. Womit beschäftigt sich Ihr Startup „nebumind“ und welchen Mehrwert bietet es?

Die kurze Version: Wir helfen Produktionen dabei, die Qualität ihrer produzierten Bauteile zu analysieren, die Faktoren zu verstehen, die die Qualität beeinflussen, und die Fertigungsparameter zu optimieren.

Die ausführliche Version: Zu meiner Zeit in der Luftfahrt war ich viel in Produktionen unterwegs und habe mich vor allem um Prozessautomatisierung und „In-Process Sensorik“ im CFK-Bereich gekümmert. Ich bin irgendwann zu dem Schluss gekommen, dass es sehr oft nicht notwendig ist noch mehr Sensoren einzusetzen, sondern die Fertigungsdaten, die man schon hat, intelligent auszuwerten. Das Problem dabei ist, dass sich die meisten Ingenieure nicht besonders gut in dem Bereich Data-Analytics auskennen und dass die meisten Data-Scientists zu wenig Ahnung von Fertigungstechnologien und Materialien haben. Da gibt es eine Sprachbarriere, die bis jetzt die wenigsten mir bekannten Unternehmen überwunden haben. Daher werden Lösungen benötigt, die beiden Seiten eine gemeinsame Basis bieten.

Was wir den Kunden anbieten ist eine Softwarelösung, die Fertigungsdaten in einer Weise aufbereitet, dass man sie intuitiv verstehen und mit einfachen Mitteln Analysen durchführen kann. Wir haben uns dabei auf die Themen Bauteilqualität und Prozessstabilität spezialisiert. Der Kern unserer Datenaufbereitung ist die 3D-Strukturierung und Visualisierung. Unsere Annahme ist, dass die allermeisten Qualitätsprobleme von Bauteilen an bestimmten Positionen am Bauteil festgemacht werden können. Daher strukturieren wir die Daten so, dass wir schnell alle Informationen zu einem bestimmten Ort bekommen, z.B. wie schnell die AFP-Maschine die Fasern an den Koordinaten X,Y,Z abgelegt hat, und mit welcher Kompaktierkraft und Temperatur der Heizquelle, etc. Unsere Software bezieht alles auf den bestimmten Ort, an dem der Mitarbeiter vielleicht einen Defekt bzw. eine Abweichung gefunden hat. Die Datenvisualisierung in 3D ist ein einfaches Konzept, das auch den Leuten klar ist, die nicht Informatik studiert haben. Wir bezeichnen das auch als digitaler Bauteilzwilling, wobei unsere Zwillinge nichts mit CAD oder Simulation zu tun haben, sondern ausschließlich Fertigungsdaten repräsentieren. Wenn man am Bauteil oben links einen Fehler findet, will man die Produktionsdaten genau an dieser Position wissen und vergleicht diese im ersten Schritt mit den Bauteilen des gleichen Typs an der gleichen Stelle, um herauszufinden, ob irgendeiner der aufgenommenen Prozessparameter vom „Normalen“ abweicht. Außerdem ist unsere Strukturierung der Daten dafür prädestiniert, um als Basis für das maschinelle Lernen zu dienen. Für die meisten Ansätze muss dabei keine weitere Mühe in das Daten-Preprocessing gesteckt werden. Dieses Vorgehen evaluieren wir gerade mit einem Pilotkunden, bei dem unsere Software bereits im Einsatz ist, und mit dem Fraunhofer IGCV und dem DLR ZLP in Augsburg. Beim IGCV haben wir sogar einen permanenten Edge Computer aufgestellt, der bei Bedarf jederzeit für Kundenprojekte verwendet werden kann, um digitale Bauteilzwillinge für das AFP aufzuzeichnen.

 

Wie unterscheidet sich Ihre Software-Lösung von anderen am Markt?

Die meisten anderen Softwarelösungen am Markt konzentrieren sich auf Business Intelligenz und damit auf Bereiche der Produktion, für die es kein explizites Fachwissen über Produktionsprozesse bedarf: Die meisten konzentrieren sich auf Analysen logistischer Prozesse – also beispielsweise die Analyse, wo Flaschenhälse in der Produktion sind, ob der Materialfluss stabil läuft oder auch die OEE der Fertigungsanlagen. Für diese Art der Analyse macht es Sinn, mit Time-Series Datenbanken zu arbeiten. Die Fragen, die an solche Datenbanken gestellt werden, beziehen sich auf Zeiten, z.B. lief meine Maschine den ganzen Tag, war mein Material zum richtigen Zeitpunkt an der entsprechenden Maschine, etc. Diese Softwarelösungen sind allerdings nicht geeignet, um Fragen nach einem bestimmten Ort im Bauteil zu stellen. Datenbanken sind immer für bestimmte Anwendungsfälle optimiert und so ist unsere Lösung optimiert auf Qualitätsanalysen und die Analyse der Prozessstabilität. Damit wäre unsere Lösung selbst bei kleinen Anwendungsfällen bereits um den Faktor 10.000 schneller als Lösungen aus dem Bereich Business Intelligenz. Aus unserer Sicht ist es wichtig, dass der Ingenieur „schnell“ Analysen hinsichtlich Bauteilqualität durchführen kann, um verschiedenen Vermutungen nachzugehen. Außerdem macht es unsere Lösung performant genug, um die Qualität im laufenden Betrieb zu überwachen, also „In-Process“.

 

Inwiefern revolutionieren Ihre Angebote auch den Composites-Markt?

Es ist das erste Mal, dass Produktionen ein Werkzeug für die systematische Datenanalyse haben, mit der Experten prozessunabhängig Qualitätsanalysen durchführen können. Das wird die Kommunikation zwischen den Silo-Experten drastisch verbessern, da nicht nur unterschiedliche Parameter aus einem einzelnen Prozessschritt untersucht, sondern auch Daten aus verschiedenen Prozessschritten entlang der gesamten Prozesskette abgerufen und analysiert werden können. Dadurch kann sich z.B.  der CT-Experte mit dem AFP-Experten zusammensetzen und die Daten aus beiden Produktionsschritten überlagern, um nach Abweichungen bzw. Korrelationen zu suchen. Wenn diese Abweichungen gefunden sind und klar ist, wo die Ursache der Abweichungen liegt (z.B. eine ungünstige Kombination von Geschwindigkeit, Kompaktierkraft und Temperatur in einer Rampe mit einer bestimmten Steigung), können solche Kombinationen von Parametern auch online überwacht werden oder sogar verwendet werden, um vor der Produktion zu überprüfen, ob man mit einem bestimmten Maschinenprogramm ein „Gut“-Bauteil herstellen wird.

 

Wie hoch schätzen Sie den Digitalisierungsgrad von Prozessen und Produktionsabläufen in Deutschland ein?

Es hängt stark vom Bereich ab. Bereiche die schon digitalisiert waren, werden es jetzt immer mehr (z.B. digitale Produktionsaufträge, das Nachverfolgen von Bauteilen, etc.). Da hatte man vorher an vielen Stellen schon ERP-Systeme eingesetzt und die baut man nun schrittweise weiter aus. Ein Bereich, der meiner Meinung nach sehr hinterher hinkt, ist die Digitalisierung der Fertigungsprozesse. Aus meiner Sicht haben sich die Firmen viel zu früh mit detaillierten Masterplänen befasst ohne die notwendige Erfahrung zu sammeln und Wissen aufzubauen. Viele haben für sich definiert, dass alle Maschinen eine Standardschnittstelle haben müssen, damit man die Daten bekommt und mit der Analyse durchstarten kann – nebenbei bemerkt, ohne klar zu definieren was man eigentlich konkret analysieren möchte. Aber diese eine Standardschnittstelle gibt es nicht. Und die Anforderungen an die Schnittstellen ergeben sich eigentlich auch aus dem, was man analysieren möchte. Die Schnittstellen erzeugen bzw. beeinflussen maßgeblich die Datenqualität. Wenn ich meine OEE ermitteln will, genügt es mir alle paar Sekunden zu wissen, ob meine Maschine noch läuft und was sie ungefähr tut. Wenn ich aber die Qualität von Bauteilen analysieren möchte, genügt es mir ganz und gar nicht, nur alle paar Sekunden die Laserleistung beim Thermoplast Fiber Placement zu wissen. Roboter können mit Geschwindigkeiten von mehr als einem Meter pro Sekunde bahnbezogene fahren. Wenn ich die Produktionswerte nur einmal pro Sekunde bekomme, hat die Maschine einen Meter abgelegt, über den ich praktisch überhaupt keine Informationen hätte. Im Bereich der tatsächlichen Fertigung muss in Bezug auf die Digitalisierung noch viel Wissen und Verständnis aufgebaut werden.

 

Was müsste getan werden, um die Digitalisierung weiter voranzutreiben und wirkt die derzeitige Corona-Pandemie eher als Beschleuniger oder Hemmnis dieser Unternehmenstransformation?

Wie oben erwähnt, nehmen wir wahr, dass in Bereichen, die bereits digitalisiert waren, viel getan wird, und wir meinen auch zu sehen, dass diese Bestrebungen in der Pandemie noch zugenommen haben. Die anderen Bereiche scheinen durch die Pandemie eher gehemmt zu werden. Ich vermute, dass man in der Phase, in der sich die meisten Unternehmen gerade befinden, Personal vor Ort braucht, um die Maschinen anzuschließen und sich auch in multidisziplinären Teams darüber austauschen muss, um herauszubekommen, was man eigentlich erreichen will – um ggf. eine Antwort auf die Frage zu finden, was nach der Berechnung der OEE kommt.

Ich denke, man braucht in jedem Fall eine Vision, wo man mit der Digitalisierung hin will, aber erst einmal ohne einen detaillierten Masterplan. Dann muss man mit kleinen Projekten starten, um Erfahrungen zu sammeln und um Experten aufzubauen. Dabei gibt es viele Schritte, die nicht fancy und AI-getrieben sind. Da muss jemand mit einem Kabel zu einer Maschine gehen, es anschließen und schauen, wie und welche Daten er herausbekommt. Diese Person muss darüber auch schon etwas wissen und muss auch wissen welche Anforderungen an die Datenqualität gestellt werden. Denn ohne diese Person hat die Abteilung mit den Maschine Learning Experten, so sie denn existiert, eben auch nichts zu analysieren bzw. in einer Qualität, die nicht ausreicht, denn der Spruch „shit-in, shit-out“ ist nach wie vor richtig. Qualität kann man nicht nachträglich erhöhen.