Datenanalyse

Was macht die Datenanalyse in der Produktion so herausfordernd?

Mehr als 67 % der produzierenden Unternehmen sind nicht zufrieden mit den Ergebnissen der Datenanalyse in der Fertigung (Vgl. Groggert et. al 2017 Werkzeuglabor RWTH Aachen). Woran kann dies liegen – während künstliche Intelligenz in anderen Bereichen autonom fahren lernt oder bereits Musikstücke komponiert? Wir haben für Sie sechs zentrale Herausforderungen und Lösungsansätze zusammengefasst:

1) Heterogene Datenlandschaft
Problem: Eine hohe Diversität von Fertigungsprozessen stellt hohe Ansprüche an Analysemethoden, um diese auch auf andere Prozesse kostengünstig transferieren zu können. Ansätze, die nur für einen konkreten Use-Case geeignet sind, gestalten sich als sehr kostenintensiv.
Lösung: Verwendung von generischen Modellen ergeben ein gutes Kosten-Nutzen Verhältnis bei Transformation auf neue Anwendungsfälle.

2) Hohe Kosten von falschen Alarmen (False Negatives)
Problem: Wird ein qualitativ gutes Bauteil durch eine Analyse falsch eingestuft, belaufen sich die entstandenen Fehlerkosten auf die Herstellkosten. Wird jedoch ein schlechtes Bauteil als gut eingestuft und für den Kunden freigegeben, können viel höhere Kosten entstehen.
Lösung: Auswahl von erklärbaren Konzepten wie White Box Modellen oder Erklärbare künstliche neuronale Netze stärken das Vertrauen in die Analysen.

3) Fehlende Nachverfolgbarkeit im Produktionsprozess
Problem: Um ganzheitliche Analysen zu ermöglichen, müssen Batches oder Fertigungsaufträge über den ganzen Produktionsfluss zuordenbar sein. Bevor Prozessverbesserungen datenbasiert realisiert werden können, bedarf es oft einer Investition in die Datengrundlage.
Lösung: Als Quick Win manuell mehrere Fertigungsaufträge aufzeichnen, um das Potential greifbar zu machen und langfristig einen Prozess zur Nachverfolgbarkeit aufsetzen.

4) Stabile Qualität als Herausforderung
Problem: Nur aus Schwankungen im Produktionsprozess können Prozesszusammenhänge erkannt werden. Falls die Prozesse zu stabil laufen, kann ein Algorithmus keine Veränderungen erlernen und somit auch keine allgemein gültigen Aussagen treffen.
Lösung: Daten zum Trainieren über einen längeren Zeitraum (Sommer & Winter, mehrere Wochentage oder Schichten) auswählen.

5) Schwierige Interpretierbarkeit von Data-Mining Ansätzen
Problem: Ein Algorithmus gibt oft mehr oder weniger kryptische Zahlen aus. Diese sind für einen Data-Scientist sehr aufschlussreich – für den Nutznießer an der Anlage oder in der Qualitätssicherung muss die Kennziffer jedoch in eine greifbare Information übersetzt werden.
Lösung: Darstellung über eine Rot-Grün Ampel in Analogie an ein Andon Board

6) Zentraler Datenzugriff nicht gegeben
Problem: Bestandanlagen und verteilte Datenspeicher stellen Sie bei der Datenkonsolidierung vor eine große Herausforderung. Leider fehlen in vielen Bereichen einheitliche Schnittstellen zum Datenabruf.
Lösung: Auf offene Schnittstellen bereits bei der Anlagenbeschaffung achten und Bestandsanlagen mit einem IoT-Gateway ausstatten. Die Datenhaltung kann durch ein MES (Maschinenparameter) und ein CAQ System (Qualitätsdaten) erleichtert werden.

Zusammenfassung

Sowohl die Infrastruktur in der Produktion als auch die Wahl der Umsetzung kann den Erfolg einer Datenanalyse stark beeinträchtigen. Ein Quick Win ist Fokussierung auf einen Use-Case und Fertigungsprozess. Dies vereinfacht die Datenerhebung und erlaubt es Ihnen, ein klares Ziel zu definieren. So gewinnen Sie schnell erste Einblicke und ein Gefühl, wo sie auf dem Weg zum Gipfel des Datenberges in Ihrer Produktion stehen. Mit DatenBerg arbeiten wir an der Lösung dieser Herausforderungen. Mit einem standardisierten Vorgehen (Base Camp) definieren wir mit Ihnen einen Use-Case zur Datenanalyse, analysieren die Produktionsdaten in enger Zusammenarbeit mit Ihnen und diskutieren Insights in Ihre Daten. Kontaktieren Sie uns, um mehr zu erfahren!

DatenBerg bietet KI-gesteuerte Tools für die industrielle Analytik zur Vorhersage der Qualität an. Die DatenBerg Software konsolidiert riesige Datenmengen mit sehr hoher Geschwindigkeit aus verfügbaren Datenquellen in der Produktion und streamt die Daten in Echtzeit an den lokalen Server. Mit Hilfe einzigartigem, proprietärem maschinellem Lernen identifiziert die Analyse von DatenBerg selbständig Anomalien, verknüpft diese mit Prozessparametern innerhalb des Produktionsprozesses und prognostiziert auftretende Fehler. Darüber hinaus ermöglicht DatenBerg den Vergleich zwischen Maschinen- und Qualitätsdaten mit einem Klick. Mit einer Echtzeit SPC Überwachung können auch mit eingeschränkter Datengrundlage bereits Mehrwerte erzielt werden. Die Standardsoftware wird durch das Qualitätsmanagement, Produktionsingenieure und Maschinenbediener genutzt, ohne dass Big Data-Experten eingestellt werden müssen. Die DatenBerg-Lösung ist bereits heute für produzierende Unternehmen verfügbar, die Industrie 4.0-Anwendungen implementieren und den Gipfel Ihrer Datenberge erklimmen möchten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.