OEE berechnen

Eine OEE zu berechnen klingt einfach - mit den richtigen Werkzeugen ist es das auch. Lässt sich die Kennzahl für eine Anlage noch leicht manuell berechnen, wird es bei einer größeren Anzahl von Anlagen schnell zeitaufwändig und unübersichtlich. In diesem Beitrag zeigen wir Ihnen, worauf Sie bei der Softwareauswahl achten sollten und wie Sie die OEE in der smartPLAZA berechnen.

Grundlagen der OEE

Bei der Berechnung der Overall Equipment Efficiency (OEE) geht es darum, das Verbesserungspotential einer Maschine, Linie oder Anlage transparent aufzuzeigen. Die Kennzahl gibt eine aggregierte Aussage darüber, wie gut oder schlecht die Anlage gelaufen ist. Der Vergleich erfolgt mit einem Sollwert, insbesondere jedoch mit vorgestern und der weiteren Historie. Die Kennzahl setzt sich aus den drei Einzelkennzahlen Verfügbarkeit, Leistung und Qualität zusammen. Diese können stückbezogen oder zeitbezogen berechnet werden. In diesem Blogbeitrag haben wir die Theorie hinter der OEE näher beschrieben.

Wichtig an der OEE ist, dass sie eine objektive Sicht liefert. Dabei ist zu beachten, dass es nicht die eine "richtige" Variante der Berechnung der Kennzahl gibt. Je nach Produktionsprozess kann sie etwas anders interpretiert werden. Wichtig ist jedoch: Ist einmal festgelegt, wie die OEE berechnet wird, sollte über Verbesserungsmöglichkeiten diskutiert werden und nicht mehr über die Berechnungsmethode. Wenn Sie erst einmal tiefer in das Thema „OEE“ eintauchen möchten, haben wir in diesem Beitrag eine detaillierte Einführung zusammengestellt.

Auswahl eines geeigneten Softwaretools zum OEE berechnen

Es gibt viele Möglichkeiten, die OEE zu berechnen. Ob manuell, halbautomatisch oder vollautomatisch, viele Wege führen nach Rom. Manuelle Berechnungen bieten sich für den Einstieg an. Manuell erfasste Werte in ein Tabellenkalkulationsprogramm übertragen und dann eine Grafik für das Shopfloor-Meeting ausdrucken - so kann man anfangen. Die Nachteile liegen jedoch auf der Hand: Fehleranfälligkeit und Zeitaufwand für das Zusammentragen der Daten. Halbautomatische Ansätze geben bereits einige Kennzahlen aus, benötigen aber noch manuelle Eingaben, z.B. die Anzahl der Gut-/Schlechtteile. Vollautomatische Ansätze erhalten alle Informationen aus den Steuerungs-, ERP- und Qualitätssystemen, berechnen die Kennzahlen direkt und stellen diese auf einer Visualisierung zur Verfügung.

Welche Kriterien sind bei der Auswahl der Software zu berücksichtigen?

Schritte um die OEE zu berechnen

Schritt 01: Festlegung der OEE-Berechnung

„Glaube keiner Statistik, die du nicht selbst gefälscht hast“ - dieses Zitat ist allgegenwärtig. Bei der Berechnung der OEE ist es sehr wichtig, die Kennzahl nachvollziehbar und transparent aufzubauen. Dazu bietet sich ein Workshop an, in dem die einzelnen Inhalte der Berechnung im Team definiert werden. Als Basis bietet es sich an, mit der Basis - ein Tag hat 24h - zu beginnen. Davon ausgehend definiert das Team dann, was in diesen 24h passiert. Also was zählt als produktiv, was als Störung. Hier gibt es (bis auf wenige Ausnahmen) kein richtig oder falsch - wichtig ist, dass die Berechnungsvorschrift zum Produktionsprozess passt und Verbesserungspotential aufzeigt. Sollen mehrere Linien gleichzeitig berechnet werden, müssen auch mögliche Unterschiede zwischen den Anlagen beleuchtet und ggf. berücksichtigt werden.

Gerade wenn die ersten Schritte in Richtung OEE-Berechnung gemacht werden, ist es auch sinnvoll, noch keine OEE-Berechnung (also die Multiplikation) durchzuführen, sondern die Kennzahlen einzeln aufzulisten. So lernt das Team den Produktionsprozess kennen, kann die Berechnung bei Bedarf noch ändern und dann im zweiten Schritt auch die Multiplikation durchführen.

Schritt 02: Datenerfassung und Integration

In der Integrationsphase sollten möglichst viele Daten automatisiert verarbeitet werden.

Drei Datenquellen bilden häufig die Grundlage für die Berechnung der OEE. Betriebsdaten (BDE) beschreiben, wann die Anlage in welchem Zustand war. Diese Daten werden oft manuell oder halbmanuell vom Mitarbeiter in einem Betriebsdatenerfassungsgerät oder in Excel erfasst. Die Prozessdaten geben Auskunft darüber, wie viele Teile produziert wurden. Die Qualitätsaufzeichnungen enthalten die notwendigen Informationen, um die Qualitätskomponente der OEE zu berechnen. Die folgende Abbildung zeigt die Datenquellen.

Um Fehlerquellen auszuschließen, wird eine automatisierte Datenübertragung empfohlen. Je nach Maschine und Einstellung ist dies mehr oder weniger aufwendig. In der smartPLAZA stehen verschiedene Standardschnittstellen zur Verfügung. Darüber hinaus können auch individuelle Datenquellen miteinander verknüpft werden.

Schritt 03: Automatisiert OEE berechnen

In Schritt 01 wurde bereits festgelegt, wie die OEE berechnet wird. Nun stellt sich die Frage, wann die OEE für einen Kalendertag berechnet werden soll. Wenn nur während des Tages produziert wird, also nicht über die Tagesgrenze hinaus, ist dies relativ einfach. Hier bietet sich eine Berechnung kurz nach Mitternacht an. Alle Daten sollten bereits übertragen worden sein. Bei der nächsten Frühbesprechung liegen die Kennzahlen vor.

Wird über die Tagesgrenze hinaus produziert, gibt es zwei Möglichkeiten:

Natürlich gibt es noch mehr Möglichkeiten - z.B. kann der Berechnungszeitpunkt auch direkt nach Schichtende definiert werden. In der smartPLAZA definieren Sie den Berechnungszeitpunkt in der Aggregation. Dort hinterlegen Sie auch die Berechnungsvorschrift als Java-Script oder verwenden vorgefertigte Bausteine zur Berechnung der OEE. Nach der Berechnung werden die Kennzahlen in eine Tabelle geschrieben und steht für die Weiterverarbeitung (Analyse, Dashboards) zur Verfügung. Wird an der Berechnungsvorschrift etwas geändert, kann die gesamte Historie neu berechnet werden. Somit sind die historischen Kennzahlen immer vergleichbar. In der folgenden Abbildung ist die Aggregationsfunktion in der smartPLAZA dargestellt. In Blau werden die Spalten aus der Betriebsdatentabelle definiert und in Grün sind die berechneten Kennzahlen dargestellt. Das hinterlegte Skript ist individuell anpassbar.

Schritt 04: Visualisierung der Kennzahlen

Auf Basis der berechneten Kennzahlentabelle wird die Visualisierung im Dashboard-Modul aufgebaut. Diese sind als Drag & Drop-Editor konzipiert, so dass eine Vorlage ausgewählt und an die individuellen Bedürfnisse angepasst werden kann. Die Daten stehen in der morgendlichen Besprechung zur Verfügung und die Darstellungen werden automatisch aktualisiert, sobald neue Datenpunkte zur Verfügung stehen. Bei der Visualisierung können sowohl prozentuale Kennzahlen als auch Stück- oder Zeitangaben dargestellt werden.

Schritt 05: Analyse und kontinuierliche Verbesserung

Einmal täglich wird die OEE berechnet. Die Kennzahlen werden im Shopfloormeeting verwendet. Aber hier hört es nicht auf. Mit Hilfe einer gezielten Analyse können Leistungseinbußen zurückverfolgt und Gegenmaßnahmen validiert werden. Die berechneten OEE-Daten werden in einer Tabelle in der smartPLAZA gespeichert. Neben der reinen Visualisierung können die Verläufe auch in der Analyse dargestellt werden.

Während auf der aggregierten OEE-Ebene verdichtete Informationen dargestellt werden, kann zur Ursachenfindung in die rohen Prozess- und Betriebsdaten gesprungen werden. Mit Hilfe von statistischen Kennzahlen und Gestaltungselementen können Trends oder Ausreißer in der OEE schnell begründet werden.

Neben der Ursachenanalyse eignet sich die Analyse auch zur Validierung der Wirkung von Verbesserungsmaßnahmen. Damit ist die Grundlage geschaffen, um mit Hilfe von Zahlen, Daten und Fakten eine kontinuierliche Verbesserung zu erreichen.

Zusammenfassung OEE berechnen

Zur Berechnung der OEE sind verschiedene Schritte notwendig: Definition der OEE-Berechnungsmethode, Erfassung der relevanten Daten, Berechnung der OEE und Visualisierung sowie die anschließende Analyse zur kontinuierlichen Verbesserung. Mit Hilfe der DatenBerg smartPLAZA meistern Sie diese Schritte in einem integrierten Tool. Damit erhalten Sie eine objektive Sicht auf Ihre Produktionsprozesse und schaffen die Grundlage zur Steigerung der Gesamteffizienz.

Übersicht Aggregation

Funktionsweise der Aggregation

Mit Hilfe der Aggregation werden Tabellen nach vorgegebenen Intervallen aufgeteilt und daraus Kennzahlen berechnet oder eigene Rechenoperationen durchgeführt. Die Aggregation findet Anwendung, wenn z.B. eine OEE pro Tag oder Schicht berechnet werden soll. Ein weiterer Anwendungsfall sind Auswertungen auf Monatsebene, wie z.B. Überschreitungen von Qualitätsvorgaben pro Monat. Diese können dann in der Analyse untersucht oder in einem Dashboard visualisiert werden.

Die Aggregation basiert auf einer Datentabelle im Data Warehouse zugeordnet. In einem einstellbaren Intervall (z.B. Tag) führt die Aggregation dann eine Berechnung durch. Das Ergebnis wird dann in eine neue Tabelle zurückgeschrieben. In der folgenden Abbildung ist die Funktionsweise dargestellt. Die Rohdaten sind die Betriebsdaten, die angeben, von wann bis wann die Maschine in welchem Zustand war. Die Aggregation geht durch alle Zeilen (von i = 0 bis i = 7, dem letzten Eintrag) und berechnet für jede Zeile die Dauer. Diese werden aufsummiert und je nach Zustandsgrund der Summe „Produktion“, „Störung“ oder „Pause“ zugeordnet. Hierfür stehen Standardkomponenten zur Verfügung oder es können eigene Java-Script-basierte Skripte hinterlegt werden. In der Abbildung ist die Berechnung für zwei Tage (16. und 17.11) durchgelaufen und hat dadurch zwei Zeilen in der Auswertetabelle erzeugt.

Aufbau einer Aggregation

In smartPLAZA finden Sie die Aggregation im Modul Data Warehouse (Datenquellen) unter dem Reiter „Aggregationen“ (in der grauen Zeile neben „+ Datenquelle hinzufügen“). Dort finden Sie alle angelegten Aggregationen aufgelistet und sehen den Status (aktiv / nicht aktiv). Durch Klicken auf „+ Neue Aggregation“ wird eine neue Aggregation angelegt. Durch Doppelklick auf die neu hinzugefügte Zeile gelangen Sie in das Bearbeitungsfenster.

Im rechten Fensterbereich finden Sie die Registerkarten „Allgemein“, „Daten“ und „Berechtigungen“.

Unter „Allgemein“ legen Sie das gewünschte Aggregationsintervall fest. Bei der Einstellung Tag nimmt die Aggregation alle Zeilen einer Tabelle für einen Kalendertag X und führt darauf die definierten Berechnungen durch. Wichtig: Stellen Sie hier die Zeitzone der jeweiligen Tabelle ein.

Unter „Daten“ legen Sie die gewünschte Tabelle fest, indem Sie auf „+Tabelle hinzufügen“ klicken. Wählen Sie in der Spalte Datum die Spalte aus, nach der die Tabelle aggregiert werden soll. Sollen mehrere Gruppen wie z.B. Schichten oder Maschinen separat aggregiert werden, können Sie dies über „+Gruppe hinzufügen“ abbilden. Wählen Sie dazu das gewünschte Meta-Attribut aus dem Dropdown-Menü aus. Hinweis: Sie können auch verschiedene Tabellen zu einer Aggregation hinzufügen. Wichtig ist nur, dass beide über einen Zeitstempel verfügen. Eine direkte Verknüpfung zwischen den Tabellen, wie sie z.B. in der Analyse notwendig ist, ist nicht erforderlich.

Unter „Berechtigungen“ können Sie das gewohnte Rollenmanagement einstellen.

Schritte zum Einrichten einer Aggregation

Schritt 1: Aggregation hinzufügen

Unter Data Warehouse (Datenquellen) klicken Sie auf den Reiter „Aggregationen“. Nun klicken Sie auf „+Aggregation hinzufügen“. Wählen Sie aus der liste nun die neu hinzugefügte Aggregation aus.

Schritt 2: Tabelle hinzufügen

Klicken Sie auf die Registerkarte „Daten“ und wählen Sie die Option „+Tabelle hinzufügen“. Wählen Sie die gewünschte Tabelle aus der Dropdown-Liste und unter „Datum“ das entsprechende Datum. Unter „Allgemein“ belassen wir die Angaben auf Intervall Tag und Zeitzone UTC. Je nach Anwendung kann dies natürlich angepasst werden

Schritt 3: Berechnung hinzufügen

Klicken Sie auf „+ Berechnung hinzufügen“, um eine neue Berechnungskomponente hinzuzufügen. Derzeit können Sie zwischen vorgefertigten Komponenten wie z.B. „Messwerte zählen“ oder einer eigenen Java-Script-basierten Berechnung wählen.

In diesem Beispiel wird die Komponente „Messwerte zählen“ ausgewählt. Diese wird nun als eigene Box in den Berechnungen angezeigt. Links unter „Wert:“ befindet sich ein graues Kästchen und rechts ein grünes Kästchen „Anzahl“. Dies ist die Grundstruktur einer Berechnung - links werden die Eingaben definiert und rechts in grün die Ausgaben. Durch Anklicken des grauen Kastens öffnet sich ein Fenster mit allen Merkmalen der gewählten Tabelle. Hier wählen Sie das gewünschte Messmerkmal oder Meta-Attribut aus. Mit einem Klick wird es ausgewählt und das Fenster schließt sich. Die graue Box ist nun blau ausgefüllt und der Name erscheint. Durch Klicken auf den Namen „Anzahl“ kann der angezeigte Name geändert werden. Unter dem Namen ist die Option „Wert veröffentlichen“ sichtbar. Soll der Wert in eine Tabelle geschrieben werden, muss diese Option angekreuzt werden. Ist der Wert nur ein Zwischenwert für eine weitere Berechnung, ist diese Option nicht angehakt.

Schritt 4: Aggregation starten

Die Aggregation ist konfiguriert und kann nun gestartet werden. Klicken Sie dazu auf „Aggregation starten“ über dem Berechnungsbereich. Nach einer kurzen „Start“-Phase wird die Option „Aggregation stoppen“ angezeigt. Dies bedeutet, dass die Aggregation erfolgreich durchgeführt wird. In der Analyse sehen Sie nun die neue Tabelle mit dem Ergebnis der aggregierten Tage.

Hinweis: Wenn Sie die neue aggregierte Tabelle in der Analyse nicht sehen, müssen Sie das Label „Aggregation“ unten links in der Tabellenauswahl aktivieren.

Troubleshooting

SSO in der smartPLAZA aktivieren

Funktionsweise Single Sign On

Mit Hilfe von Single Sign On (SSO) können sich Benutzer mit ihren Firmendaten an der smartPLAZA anmelden. Für SSO in der smartPLAZA müssen zunächst in der Microsoft Entra ID (ehemals Active Directory) registriert und die Anmeldung in der smartPLAZA konfiguriert werden.

Die Benutzer können sich dann mit ihrer Firmen-E-Mail-Adresse einloggen, haben aber optional weiterhin die Möglichkeit, sich mit ihrem eigenen Passwort anzumelden.

Einrichten SSO mit Microsoft Entra

  1. Öffnen Sie in Microsoft Entra unter Anwendungen die Registerkarte Anwendungsregistrierungen.
  2. Klicken Sie auf „+ Neue Registrierung“
  3. Menü „Anwendung registrieren“
    • Name (Vorschlag): SSO DatenBerg smartPLAZA
    • Unterstützte Kontotypen: Standardmäßig „Nur Konten in diesem Organisationverzeichnis“ auswählen, außer andere Präferenz ist gewünscht
    • Umleitungs-URL: Wohin soll der Nutzer zurückgesendet werden? Adresse unter die smartPLAZAerreichbar ist (z.B. demo.datenberg.eu)
    • Umleitungs-URL: In smartPLAZA unter Einstellungen Benutzer / Organisationskonten bearbeiten (OAuth) / Umleitungs-URL finden
    • Mit Klick auf „Registrieren“ abschließen
  4. Parameter aus Entra in smartPLAZA übernehmen
    • Authorization endpoint (v2): Kopiert aus Entra ID (Active Directory)
    • Token endpoint (v2): Kopiert aus Entra ID (Active Directory)
    • Client ID: Kopiert aus Entra ID (Active Directory)
    • Auswirkung Option "Neue Benutzer automatisch anlegen
      • Option aktiviert: Alle Benutzer aus dem Active Directory können sich an der smartPLAZA anmelden und werden als Benutzer hinzugefügt.
      • Option Nicht aktiviert: Nur E-Mail Adressen, die den in der smartPLAZA angelegten Benutzern zugeordnet werden können, können sich anmelden.
  5. Client Secret anlegen
    • In der Übersicht auf „Zertifikate & Geheimnisse“ klicken
    • Klick auf Neuer geheimer Clientschlüssel
    • Hinweis: Die Gültigkeitsdauer nach eigenen Wünschen anpassen
    • Key kopieren und in smartPLAZA kopieren
    • Abspeichern
  6. Reiter API Berechtigungen öffnen
    • Springen Sie zurück in Entra und öffnen Sie den Reiter "API Berechtigungen"
    • Klicken Sie auf “Administratorzustimmung  erteilen“
  7. Test SSO in der smartPLAZA
    • Springen Sie zurück in die smartPLAZA
    • Prüfen, ob der eingeloggte Account die eigene E-Mail Adresse hinterlegt hat, für die man sich per SSO in der smarrtpALZA einloggen möchte, wenn ja weiter, sonst E-Mail Adresse hinterlegen
    • Abmelden (Unten links im grauen Bereich über dem Einstellungsrädchen)
    • Anmeldung über SSO in der smartPLAZA

Maschinendatenerfassung

Grundlagen der Maschinendatenerfassung

Bei der Maschinendatenerfassung (kurz MDE) steht die Dokumentation der von einer Maschine erfassten Daten im Vordergrund. Dies kann sowohl manuell als auch automatisiert geschehen. Zur Konkretisierung des Begriffs bietet sich die Unterteilung in Produktions-, Betriebs- und Zustandsdaten an. Die drei Datenarten vermitteln jeweils eine andere Sicht auf eine Maschine. Produktionsdaten geben einen Überblick auf Produkt- oder Auftragsebene, wie z.B. Taktzeit oder Ausschussmenge. Zustandsdaten zeigen, wie lange eine Maschine produktiv oder stillgelegt war. Damit erhält man bereits ein detaillierteres Bild. Den höchsten Detaillierungsgrad erreichen Zustandsdaten, wie z.B. ein Temperaturverlauf. Diese sind oft sehr fein aufgelöst und die Erfassungsintervalle sind im einstelligen Sekundenbereich.

Die Auswahl des für die MDE relevanten Datentyps erfolgt je nach Zielsetzung. Welche Daten eine Maschine liefert, ist sehr individuell. Hier gibt es verschiedene Initiativen, um herstellerübergreifend ähnliche Informationen zur Verfügung zu stellen. Ein Beispiel ist die EUROMAP-Initiative für Gummi- und Kunststoffmaschinen.

DatenartBeschreibungBeispiel
ProduktionsdatenProdukt- oder auftragsbezogene Informationen.Produktionsmengen, Produktionszeiten, Zykluszeiten, Durchlaufzeiten und Ausschussraten.
BetriebsdatenZeitbezogene Informationen über den Anlagenzustand.Maschinenlaufzeiten, Stillstandszeiten, Wartungszyklen, und Betriebszustände.
ZustandsdatenZeitbezogene Informationen über die gemessenen Zustandswerte der Anlage.Temperatur, Druck, Vibrationen, Stromstärke und
Energieverbräuche.

Zielstellung einer Maschinendatenerfassung

Wie immer steht die Frage nach dem Warum bei der MDE an erster Stelle - die möglichen Motivationen sind vielzählig. Zur Illustration ein Beispiel: Eine Anlage produziert ein Bauteil. In der Ausgangssituation gibt es kein MDE. Daraus ergeben sich verschiedene Probleme:

Ein MDE löst die beschriebenen Probleme und noch mehr - die Aufzählung ist sicher nicht vollständig. So wird durch die Erfassung von Produktdaten Transparenz über den Anlagenfortschritt und -zustand erreicht. Dies ermöglicht eine bessere Planung und eine schnellere Reaktion auf Abweichungen. Durch die Erfassung von Zustandsdaten wird auch der Ressourcenverbrauch sichtbar. Ein Mehrverbrauch wird leichter erkennbar. Durch die Dokumentation der Eingriffe des Bedieners ist die Grundlage für die Anpassung eines Assistenzsystems gelegt. Dadurch werden auch unerfahrene Kollegen bei der Anlagenbedienung unterstützt.

Implementierung von Maschinendatenerfassungssystemen

Wie wird eine MDE nun konkret implementiert? Zum einen ist Hardware notwendig, um die Anlage physisch an ein Netzwerk anzuschließen, zum anderen eine Software, die die Erfassung durchführt. Das ist die Basis, die Kür ist dann die Anbindung an weitere IT-Systeme wie z.B. ein ERP-System oder die automatisierte Datenverarbeitung.

1) Vorbereitung Maschinennetzwerk & Hardwareauswahl

Grundlage für die MDE ist ein Maschinen-Netzwerk. Darin sind einzelne Maschine mit einem zentralen Switch typischerweise über ein Ethernet-Kabel verbunden. Dieser ist mit einem Server verbunden, auf dem später die MDE-Software läuft. Aus Gründen der IT-Sicherheit ist es sinnvoll, auf dem Server eine Firewall zu installieren, die die Kommunikation nur auf bestimmten, für jede Maschine individuell zu konfigurierenden IP-Adressen und Ports zulässt.

Szenario 1: Maschine ist selbst programmiertSzenario 2: Maschine ist zugekauftSzenario 3: Maschine hat keine Schnittstelle
LeitfrageWelche Steuerung ist verbaut?Welche Schnittstellen bietet der Hersteller an?Gibt es eine Signalleuchte?
VorgehenBei modernen Steuerungen (z.B. Siemens S7) ist oft standardmäßig eine Schnittstelle vorhanden. Prüfen, ob OPC UA oder Modbus TCP verfügbar ist. Evaluation Optionen des Herstellers hinsichtlich Preis, Offenheit, Stabilität sowie Erfahrung des Herstellers.Abgreifen der Signalleuchte via Kleinsteuerung, sonst Verbau extra Sensorik
AnmerkungenIn diesem Beitrag haben wir das Vorgehen bei der Konfiguration einer OPC UA Schnittstelle im Detail beschrieben.Proprietäre Protokolle eines Herstellers bedeuten oft einen hohen Integrationsaufwand.Als Protokolle bieten sich OPC UA, MQTT oder Modbus TCP an.

2) Softwareseitiger Aufbau der MDE

Phase 0: Softwareauswahl der MDE

Zuallererst steht die Softwarewahl an. Prinzipiell gibt es die Möglichkeit selbst Hand zu legen und eine Erfassung zu programmieren oder eine fertige Software zuzukaufen. Typische Anforderungen für die reine Erfassung sind dabei:

Die reine Erfassung ist jedoch nur ein Bauteil. Hier sollte ebenfalls direkt über Visualisierungs-, Auswerte- und Automatisierungsanforderungen nachgedacht werden.

Phase 1: Schnittstellenaufbau

Ist ein System ausgewählt, installiert und das Maschinennetzwerk aufgebaut kann es an die Konfiguration der Schnittstelle gehen. Bei der Verwendung von Standardprotokollen ist dieser Schritt recht schnell erledigt. Muss ein herstellereigenes Protokoll umgesetzt werden spricht man hier typischerweise von bis zu mehreren Tagen Arbeitsaufwand. Sollen die reinen Maschinendaten mit Daten aus dem ERP verheiratet werden, sollte dies ebenfalls in diesem Schritt erledigt werden.

Phase 2: Plausibilität der MDE

Sind die Daten nun im System müssen diese Auf Plausibilität untersucht werden. Wichtig ist dabei, die Realität und die digitale Welt abzugleichen. Wie ist die Zeitverzögerung? Was passiert bei Anlagenstopp? Sind die Werte realistisch und stimmen die Einheiten? Dies ist ein Auszug aus den Fragen, die beantwortet werden sollten. Werden ebenfalls Kennzahlen wie die Ausschussrate oder die Produktivität berechnet, sollten diese ebenfalls mit der Realität abgeglichen werden. Aus unserer Erfahrung bedarf es hierbei oft gewissen Iterationsschleifen.

Phase 3: Integration in Geschäftsprozesse

Ist die Schnittstelle stabil und die Daten plausibel, kann die Maschinendatenerfassung in den betrieblichen Alltag integriert werden. Typischerweise greift der Mitarbeiter auf eine Visualisierung zur Verfügung zur oder berechnete Kennzahlen sind Gegenstand in der morgendlichen Shopfloor-Besprechung. Hier ist es wichtig, die Kollegen abzuholen und umfassend über das System zu informieren.

Schulung & Change-Management

Die Maschinendatenerfassung bringt viele Vorteile mit sich - aber für die direkt betroffenen Mitarbeiter an den Anlagen oft auch Unsicherheiten und Fragezeichen. Ein Beispiel aus einem Projekt: Ein Mitarbeiter in einer Abfüllanlage fragte unseren Projektleiter, wann er denn einen QR-Code bekomme, um ihn verfolgen zu können. Obwohl die Frage scherzhaft gemeint war, schwangen Unsicherheiten und Ängste mit. Daher ist es sehr empfehlenswert, vor Projektbeginn mit den Mitarbeitern vor Ort zu sprechen, gemeinsam Probleme zu finden, die mit dem MDE gelöst werden sollen und diese dann natürlich auch zu lösen. Wenn das System dann aufgebaut ist, sollten die Kolleginnen und Kollegen auch iterativ eingebunden werden. Dadurch wird eine höhere Akzeptanz erreicht. Zusammenfassend lässt sich sagen, dass neben allen technischen Herausforderungen auch ein gutes Change Management notwendig ist.

Herausforderungen und Lösungen

Das Thema Datenschutz ist bei einer MDE eine wichtige Herausforderung. Sollen personenbezogene Daten, wie z.B. eingeloggte Mitarbeiter an der Anlage erfasst werden, ist der Betriebsrat zu konsultieren oder zumindest in Kenntnis zu setzen. Mit der Integration einzelner Anlagen in ein Maschinennetzwerk muss auch das Thema Cybersecurity beleuchtet werden. Neben einer individuell ausgelegten Firewall sollte auch das Thema Sicherheit beim Schnittstellenaufbau bereits pro Anlage betrachtet werden. Diverse Protokolle bieten Sicherheitsmöglichkeiten wie Zertifikate oder zumindest Nutzer und Passwort Authentifikation.

Die Komplexität der Integration ist gerade bei bestehender Infrastruktur nicht zu unterschätzen. Sind viele verschiedene Anlagen verschiedener Hersteller in der Produktion verteilt, muss jede Anlage und Schnittstelle einzeln betrachtet werden. In diesem Fall bietet sich eine Prioriserung der Anlagen hinsichtlich Wichtigkeit in der Prozesskette, regulatorischer Anforderungen und Einfachkeit der Integration an. So kann eine Rangliste erstellt werden, welche die wichtigsten Maschinen aufzeigt. Bei der Wahl ob eine Software für die MDE intern erstellt oder extern zugekauft werden soll, muss zum einem die verfügbare Kapazität intern für Schnittstellenaufbauten und spätere Wartung als auch die existierende Erfahrung mit verschiedenen Protokollen berücksichtigt werden.

Maschinendatenerfassung mit der smartPLAZA

Die DatenBerg smartPLAZA bietet eine modular erweiterbare Maschinendatenerfassung. Die Kommunikation mit der Maschine erfolgt über unser „Data Gateway“. Standardmäßig stehen eine Vielzahl von Schnittstellen zur Verfügung - zum Beispiel OPC UA, Modbus TCP, ODBC für SQL-Datenbanken oder MQTT. Das Gateway übernimmt den Verbindungsaufbau im Maschinennetzwerk, kann Daten bereits vorverarbeiten und sendet diese an die smartPLAZA. Diese strukturiert die Daten in einer SQL-Datenbank.

Falls keine Verbindung möglich ist, puffert das Gateway die Daten lokal. Bei erneutem Verbindungsaufbau erfolgt die Datenübertragung erneut.

Die smartPLAZA bietet die Möglichkeit, direkt Berechnungen durchzuführen, Visualisierungen zu erstellen, Analysen durchzuführen und Überwachungen zu automatisieren. Ebenso ist es möglich, die einzelnen Schritte einer Prozesskette miteinander zu verknüpfen. Zum Beispiel Inspektionsresultate mit den Zustandsdaten einer Maschine.

Beispiel: Maschinendaten erfassen in der Leiterplattenbestückung

Die Bestückung von Leiterplatten ist das Aufbringen einzelner Bauelemente auf eine Leiterplatte, vor dem Lötprozess im Ofen. Die Maschine bestückt automatisch, solange genügend Bauteile in den Einschüben vorhanden sind.

Als Schnittstelle spricht die Maschine ein herstellerspezifisches Protokoll, das mit Hilfe einer Schnittstellenbeschreibung verstanden werden kann. Die Schnittstellenbeschreibung zeigt, dass etwa alle 30 Sekunden die Daten für eine bestückte Leiterplatte übertragen werden. Daraus kann die Zykluszeit pro Leiterplatte berechnet werden. In smartPLAZA berechnet daraus die zu erwartende Produktionszeit, wobei die Soll-Stückzahl aus dem ERP verwendet wird.

Ebenso werden von der Maschine Informationen über den Bestückvorgang je Bestückung übertragen. In der Klassifikation der Datentypen entspricht dies den Zustandsdaten.

Mit dieser erhöhten Transparenz kann der Schichtleiter frühzeitig Gegenmaßnahmen einleiten, wenn die Zykluszeit zu hoch wird. Durch die Zustandsdaten können Fehlbestückungen schnell auf eine Bauteilart zugeordnet werden.

FAQ Maschinendatenerfassung

Was ist eine Maschinendatenerfassung?

Bei der Maschinendatenerfassung wird eine definierte Anzahl an Daten einer Maschine erfasst und zentral gespeichert. Daraus können Kennzahlen berechnet oder Verbesserungsaktivitäten abgeleitet werden.

Welche Hardware benötige ich zur Maschinendatenerfassung?

Im einfachsten Fall ein Ethernet-Kabel zur Anbindung an einen Server. Je nach Alter der Maschinen müssen jedoch Daten-Gateways oder Kleinsteuerungen eingesetzt werden, um mit der Maschine kommunizieren und die Daten weitersenden zu können.

Muss ich eine Maschinendatenerfassung mit dem Betriebsrat besprechen?

Wenn personenbezogene Information erfasst werden, sollte mit dem Betriebsrat definitiv gesprochen werden. Ganz allgemein, bietet es sich an mit dem Betriebsrat ein MDE-Projekt frühzeitig abzuklären, um mögliche Missverständnisse früh aus dem Weg zu räumen.

Was ist der Unterschied zwischen Betriebsdatenerfassung und Maschinendatenerfassung?

Die Betriebsdatenerfassung (BDE) konzentriert sich auf die Erfassung einzelner Betriebszustände (z.B. Produktion, Störung, Stillstand), während die Maschinendatenerfassung (MDE) auf die Dokumentation von Produktionsdaten (z.B. Zykluszeit, Istmenge) oder Zustandsdaten (z.B. Temperatur) abzielt.

Geht MDE auch mit Microsoft Excel?

Im Englischen kann Maschinendatenerfassung mit „machine data acquisition“ oder auch „machine data capture“ oder „collection“ übersetzt werden.

Berechnungen im Dashboard

Funktionsweise der Berechnung

Im Dashboard können Berechnungsvorschriften hinterlegt werden, die Daten dynamisch abrufen und z.B. zu Kennzahlen weiterverarbeiten. Dadurch können sehr flexible Auswertungen individuell programmiert und definiert werden. Anwendungsfälle sind z.B. eine Zykluszeitberechnung, der aktuelle Fertigungsfortschritt oder die Zusammenfassung von Störungen in der aktuellen Schicht.

Dazu werden einzelne Java-Script-Funktionen definiert, die ähnlich einer Dashboard-Komponente mit Filtern und Messmerkmalen verknüpft werden können. Das Script nimmt dann die aktuellen Einstellungen und führt vollautomatisch die Berechnungen im Dashboard aus.

Vorgehen bei Erstellung einer neuen Berechnung

Um Berechnungen im Dashboard auszuführen, folgen Sie diesen fünf Schritten:

  1. Berechnung hinzufügen: Öffnen Sie die Bearbeitungsansicht des gewünschten Dashboards. Im Bearbeitungsmodus wird unter dem Reiter "Inhalt" eine neue Berechnung angelegt und individuell benannt.
  2. Parameter festlegen: Im rechten Bereich können die Eingabe- und Ausgabeparameter der Berechnung definiert werden. Standardmäßig gibt es einen Input mit dem Namen "input1" und einen Output mit dem Namen "output1". Da wir die Zykluszeit berechnen wollen, ändern wir den Namen des Outputs in "Zykluszeit". Die Berechnung basiert auf der produzierten Stückzahl in einer bestimmten Zeit. Beide Parameter werden unter "Inputs" ausgewählt und der Berechnung übergeben.
  3. JavaScript-Code: Im Code-Bereich kann nun die eigentliche Berechnung mittels JavaScript implementiert werden.
  4. Speichern der Berechnung: Durch Klicken auf die Schaltfläche "Übernehmen" werden die Änderungen gespeichert.
  5. Ergebnis im Dashboard anzeigen: Um das Ergebnis der Berechnung auf dem Dashboard zu visualisieren, wird in diesem Beispiel ein aktueller Wert verwendet. Dazu wird in der Komponente "Istwert" als Datenquelle kein Messwert, sondern eine Zahl hinterlegt. Diese wird über das Verknüpfungssymbol mit der Zykluszeitberechnung verknüpft und das Berechnungsergebnis "Zykluszeit" ausgewählt.

Beispielcode für eine Zykluszeit-Berechnung

Im Codeauszug ist das Beispiel für eine Zykluszeitberechnung dargestellt. Die Berechnung findet dabei in der main() Funktion statt. Die "inputs" werden im Dialogfenster definiert. Zurückgegeben werden die im "output" definierten Messmerkmale, hier ist auf die identische Namensgebung zu achten.

function main(inputs) {
    var zykluszeit = 0;
    inputs.requireDate("zeit");
    var erste_stueck = inputs.stueck[0];
    var letzte_stueck = inputs.stueck[inputs.stueck.length-1];
    var erste_zeit = inputs.zeit[0];
    var letzte_zeit = inputs.zeit[inputs.zeit.length-1];
    
    var delta_time = letzte_zeit - erste_zeit; 
    var delta_stueck = letzte_stueck - erste_stueck;
    if (delta_stueck == 0 &&  delta_time != 0) {
       zykluszeit = "n/a";
    }
    else {
    zykluszeit = delta_time / delta_stueck; 
    zykluszeit = Math.round(zykluszeit/1000);
    }
        return {
            zykluszeit:zykluszeit
        };
    }


Dashboard teilen

Möglichkeiten zum Dashboard teilen

Zum Teilen des Dashboards können zwei Modi gewählt werden:

  1. Dashboard teilen (Für User mit Login): Im Bearbeitungsmodus kann unter dem Reiter "Allgemein" die Option "Dashboard teilen" ausgewählt werden. Das Dashboard erscheint nun für berechtigte Benutzergruppen der Software unter "Dashboards" und kann von diesen angezeigt oder bearbeitet werden. Mit einem Klick auf "+ Gruppe hinzufügen" kann die jeweilige Gruppe hinzugefügt werden.
    -> Um das Dashboard zu sehen, wird ein Nutzer mit Passwort benötigt.
  2. Dashboard veröffentlichen (Ohne Login): Ebenfalls im Reiter "Allgemein" befindet sich die Option "Dashboard veröffentlichen". Ist diese Option aktiviert, wird darunter ein Link angezeigt. Über diesen Link kann direkt auf das Dashboard zugegriffen werden, ohne sich vorher in die Software einloggen zu müssen.
    -> Jeder mit dem Link kann das Dashboard sehen (auch ohne Passwort / Nutzer).

Achtung: Beim Klick auf "Dashboard veröffentlichen" können alle Menschen mit dem Link das Dashboard anschauen. Hierzu bedarf es keiner weiteren Authentifikation.

Bei beiden Optionen kann das Dashboard nur angezeigt, aber nicht geändert werden. Nur der Eigentümer kann ein Dashboard bearbeiten. Der Besitzer ist in der Bearbeitungsmaske unter Allgemein zu finden. Hier kann mit einem Klick auf "Eigentümer ändern" die Eigentümerschaft auf einen selbst übertragen werden. Auf diese Weise können die Dashboards bearbeitet werden.

Geteilter Link eines Dashboards zurücksetzen

Sollte der Link eines Dashboards in falsche Hände gefallen sein, kann der Link manuell zurückgesetzt werden.

Dazu auf die Key-Übersicht unter Einstellungen und Keys öffnen. Hier die Zeile mit dem zu ändernden Dashboard auswählen. Mit Klick auf "Key zurücksetzen" wird der Schlüssel neu generiert und der alte Link funktioniert nicht mehr.

Komponentenübersicht Dashboard

Komponentenübersicht

In der Komponentenübersicht sind die einzelnen Komponenten in Gruppen zusammengefasst. In diesem Beitrag haben wir die bestehenden Gruppen zusammengefasst und erläutert.

Beschriftungen und Bilder

NameBeschreibungBeispiel
BildIntegration eines Bilds oder FirmenlogosBild einer Maschine zu den passenden Visualisierungen
HintergrundFarbliche Box oder Rahmen zur optischen Abgrenzung von Objekten
TextIndividueller Text in veränderbarer Schriftgröße
TimeAnzeige der aktuellen Uhrzeit und / oder DatumszB. 24.01.2024 10:23:15
WebsiteEinbindung und Visualisierung einer WebsiteIntegration eines Webinterface von Maschinen oder eignen Visualisierungen
ÜberschriftIndividueller Text mit Hintergrundfarbe in veränderbarer Schriftgröße

Diagramme und Anzeigen

NameBeschreibungBeispiel
AmpelVisualisierung von Grenzwertüberschreitungen durch farbige Ampel und Hintergrund oder in Form eines Barometers (Tachometer oder Balken).Visualisierung der Messmerkmale, bei Abweichungen erscheint der Hintergrund orange, bei starken Abweichungen rot.
BalkendiagrammDarstellung eines Wertes in Form eines Balkendiagramms. Besonders geeignet, um die relative Lage des Wertes zu seinen Grenzen oder einen Fortschritt zu visualisieren.Ist-Stückzahl als Balkenhöhe im Verhältnis zur Soll-Stückzahl im Diagramm.
LiniendiagrammDarstellung der zeitlichen Entwicklung einer oder mehrerer Messgrößen.Visualisierung von Qualitätsregelkarten.
ZeigerSiehe Komponente Ampel

Steuerung und Auswahl

NameBeschreibungBeispiel
Link-ButtonUm schnell zu anderen Dashboards oder externen Inhalten zu gelangen, wird der Link-Button verwendet. Der Button kann mit einer individuellen Ziel-URL versehen werden.Weiterverlinkung auf ein anders Dashboard, z.B. zur Detailansicht.
Messmerkmale (Liste)Die Komponente Messmerkmale (Liste) ermöglicht das interaktive Arbeiten mit einem Dashboard. Andere Komponenten (z.B. Liniendiagramm, Aktueller Wert...) können mit der Auswahlliste verknüpft werden. So kann zwischen verschiedenen Messmerkmalen gewechselt werden. Mehr zum Verknüpfen von Komponenten finden Sie hier.Auswahl gezielter Messmerkmale zur Visualisierung.
Metadaten-Auswahl (Liste)Liste ausgewählter Metadaten und interaktive Beeinflussung einer anderen Komponente (z.B. als Input für ein Liniendiagramm). Mehr zum Verknüpfen von Komponenten finden Sie hier.Auswahl einer Schicht, einer Anlage oder einer Fertigungsauftragsnummer zur Filterung der angezeigten Visualisierung.
ZeitfilterDer Zeitfilter ermöglicht es, die Eingaben für die Dashboard-Komponenten auf einen bestimmten Zeitraum zu filtern. Mehr zum Verknüpfen von Komponenten finden Sie hier.Auswahl der letzten 8h oder des Vormonats.

Werte und Tabellen

KomponenteBeschreibungBeispiel
Aktueller WertDarstellung eines einzelnen Wertes eines Messmerkmals. Aktueller Messwert oder aktuelle Kennzahl.
DatentabelleMit der Datentabelle können die letzten X Werte eines oder mehrerer Messwerte angezeigt werden.Alle Messwerte eines Fertigungsauftrags anzeigen.
StatistikVisualisierung der statistischen Werte eines Messmerkmals über eine definierte Anzahl von letzten Werten. (Optionen: Standardabweichung, Mittelwert, Minimum, Maximum, Bereich, Anzahl Sprünge, Anzahl Ausreißer, Cpk).Vergleich statistischer Kennzahlen zwischen Gruppen, z.B. zwischen Schichten.

Übersicht Dashboard

Funktion eines Dashboards

In einem Dashboard definieren Sie individuell, welche Inhalte angezeigt werden sollen. Dabei können Sie auf eine Vielzahl von Komponenten (eine Übersicht finden Sie hier) sowie auf eigene Berechnungen zurückgreifen. So stellen Sie die für den jeweiligen Anwendungsfall benötigte Visualisierung zusammen. Ein Dashboard empfehlen wir immer dann, wenn immer wieder die gleichen Informationen benötigt werden. Das Dashboard kann dann gemeinsam genutzt und in Echtzeit aktualisiert werden. Interaktive Komponenten ermöglichen es, die angezeigten Daten mit wenigen Klicks direkt zu filtern.

Neues Dashboard erstellen

Um ein neues Dashboard zu erstellen, wechseln Sie in das Modul Dashboards - gekennzeichnet durch das Tachometer-Symbol am linken Bildschirmrand. Klicken Sie auf „+ Dashboard erstellen“, um ein neues Dashboard hinzuzufügen.

Im sich öffnenden Assistenten vergeben Sie einen aussagekräftigen Namen für das neue Dashboard. Wählen Sie im unteren Bereich eine Vorlage aus, kopieren Sie ein bestehendes Dashboard oder erstellen Sie ein leeres Dashboard für die individuelle Anpassung. Nun springt das Programm direkt in die Bearbeitungsmaske.

Übersicht Bearbeitungsmaske

Der Hauptteil des Fensters ist der Gestaltungsbereich des Dashboards. Auf der rechten Seite können Sie allgemeine Einstellungen vornehmen, Komponenten auswählen oder Inhalte bearbeiten. Dabei werden folgende Einstellungen ausgwählt:

Dashboard bearbeiten

Um Komponenten hinzuzufügen klicken Sie im Reiter "Komponenten" ein Symbol, zum Beispiel Liniendiagramm, an. Die Komponente wird dem Dashboard hinzugefügt. Diese können Sie nun über einen Doppelklick öffnen und die gewünschten Visualisierungseinstellungen anpassen. Ähnlich wie in der Analyse wählen Sie ein Messmerkmal und können Filter setzen. Diese können zum einen statisch oder auch dynamisch verwendet werden (mehr zur Verknüpfung von Komponenten finden Sie hier). Nach der Bearbeitung kann ein Dashboard geteilt werden - mit Ihren Kollegen oder zur automatisierten Aktualisierung an einem Bildschirm ohne Login. Hier finden Sie mehr Informationen zum Thema Dashboard teilen.

Statistische Prozessregelung (SPC)

Definition und Grundlagen: Was ist SPC?

Die Statistische Prozesskontrolle (SPC) ist eine Methode zur Erfassung, Analyse und Kontrolle von Prozessschwankungen. Statt einer nachträglichen Kontrolle und Korrektur von Bauteilen nach der Fertigung konzentriert sich die SPC auf die Erkennung von Schwankungen bereits im Prozess.

Ziel der SPC ist es, Fehler frühzeitig zu erkennen und durch vorbeugende Maßnahmen den Produktionsprozess zu verbessern. Dadurch sollen Verschwendung und Fehler im Prozess vermieden werden.

Funktionsweise der SPC

Der SPC liegt eine prozessorientierte Sichtweise der Produktion zugrunde: Ein Produktionsprozess transformiert einen Input in einen Prozessoutput. Bei der Transformation wirken Steuer- und Störgrößen auf den Prozess und damit auf das Prozessergebnis ein. Sowohl die Steuer- und Störgrößen als auch der Input unterliegen zufälligen Schwankungen. Dadurch variiert auch der Prozessoutput. Bei der stichprobenartigen Überprüfung des Outputs wird beurteilt, ob der Prozess zufälligen Schwankungen unterliegt oder ob sich die Einflüsse signifikant verändert haben.

Die statistische Prozessregelung dient dazu, solche systematischen Veränderungen im Produktionsprozess zu erkennen, bevor sie im Output sichtbar werden. So können Einflussfaktoren korrigiert werden. Dabei wird zwischen zufälligen und spezifischen Einflüssen unterschieden. Erstere sind normaler Bestandteil des Prozesses und führen zu einer zufälligen Streuung des Prozesses. Treten Phänomene auf, die normalerweise nicht auftreten, spricht man von Sondereinflüssen. Diese sollten möglichst frühzeitig erkannt und korrigiert werden.

Vorgehen zur statistischen statistischen Prozesskontrolle

Um eine statistische Prozesskontrolle durchzuführen, muss eine bestimmte Vorgehensweise eingehalten werden. Im ersten Schritt wird der Werteverlauf eines Messmerkmals analysiert. Dazu werden die Messwerte in der Reihenfolge ihres zeitlichen Auftretens aufgetragen. Anschließend ist die Prozessfähigkeit des Prozesses nachzuweisen. Dazu sind die Art der Verteilung und statistische Kenngrößen (z. B. Mittelwert, Streuung) zu berechnen. Schließlich sind die Eingriffsgrenzen für den Messwert zu bestimmen. Wenn ein Messwert eine Eingriffsgrenze verletzt, spricht man von einem besonderen Einfluss. Die Eingriffsgrenzen werden aus den statistischen Kenngrößen berechnet. Dazu gibt es verschiedene Verfahren, die in diesem Blog-Beitrag näher beschrieben werden.

Vorteile von SPC: Effizienz und Qualität im Gleichgewicht

Der Einsatz von SPC bringt viele Vorteile. Durch das frühzeitige Erkennen von Prozessabweichungen können rechtzeitig Gegenmaßnahmen ergriffen und Ausschuss minimiert werden. Dies trägt nicht nur zur Qualitätsverbesserung bei, sondern erhöht auch die Effizienz der Produktion.

Die Methodik unterstützt bei der Standardisierung von Produktionsprozessen und der Sicherstellung von Qualitätsstandards. Dies stärkt das Vertrauen der Kunden und erhöht die Wettbewerbsfähigkeit des Unternehmens.

Beispiel für SPC in der Praxis

Ein Hersteller produziert Autoteile, wobei der Schwerpunkt auf Metallschrauben liegt. Mit Hilfe von SPC überwacht der Schichtleiter regelmäßig den Durchmesser der produzierten Schrauben. Wenn die Daten zeigen, dass der Durchmesser außerhalb der akzeptablen Grenzen liegt, kann der Mitarbeiter sofort Maßnahmen ergreifen, um den Prozess zu korrigieren und fehlerhafte Produkte zu vermeiden. Werden die SPC-Methoden auch auf Maschinendaten angewendet, kann die Produktion noch früher auf Abweichungen reagieren. Hier bietet sich die Maschinensteuerung als Datenlieferant an.

Praktische Umsetzung mit der DatenBerg smartPLAZA

Für den Einstieg in die SPC bietet Excel eine leicht zugängliche Plattform. Mit Hilfe von Diagrammen und Funktionen können Daten analysiert und Regelkarten erstellt werden. Es ist jedoch wichtig sicherzustellen, dass die Verwendung von Excel den Anforderungen der SPC entspricht und die Genauigkeit der Ergebnisse gewährleistet ist. Ein großer Nachteil von Excel in Bezug auf SPC ist, dass es auf manueller Dateneingabe bzw. Datenexport basiert und eingeschränkte Funktionen bietet, die einen hohen manuellen Implementierungsaufwand erfordern.

Eine effiziente Alternative in Echtzeit bietet die Software smartPLAZA von DatenBerg. Bereits bei der Datenerfassung unterstützen Standardschnittstellen zu Anlagen und Prüfmitteln. Manuelle Eingaben werden über digitale, browserbasierte Eingabemasken abgefragt. Dies ermöglicht ein proaktives Gegensteuern durch frühzeitiges Erkennen von Trends und Abweichungen. Ein automatisches Frühwarnsystem via E-Mail stellt die automatisierte Überwachung einer Vielzahl von Prozessparametern sicher und ebnet so den Weg zur multivariaten statistischen Prozesskontrolle. SmartPLAZA ermöglicht den lückenlosen Nachweis der Einhaltung von Prozessgrenzen. Dies erleichtert die Qualitätssicherung und ermöglicht eine schnelle Reaktion auf mögliche Abweichungen.

Fragen und Antworten zu SPC

Was ist SPC?

Die Abkürzung SPC steht im Englischen für "Statistical Process Control" und ist eine Methodik, um Abweichungen im Produktionsprozess frühzeitig zu erkennen.

Was benötige ich für SPC?

Ganz analog: Stift, Papier und einen Taschenrechner. Eine automatisierte Lösung benötigt einen automatisierten Datenimport, eine Auswertesoftware wie DatenBerg smartPLAZA und einen Feedbackloop zu den Mitarbeiter in der Produktion.

Prüfplanung

Begrifflichkeiten in der Prüfplanung

Prüfpläne aus Prüfvorgaben ableiten

In der Prüfplanung wird aus einem technischen Lastenheft oder einer Spezifikation abgeleitet, welche Merkmale zur Qualitätssicherung geprüft werden sollen. Die Spezifikationen können von einem externen oder von einem internen Kunden, z.B. der Entwicklungsabteilung, erstellt werden. In beiden Fällen muss ähnlich vorgegangen werden - aus den Spezifikationen müssen Prüfvorgaben abgeleitet werden. Die folgenden Fragen können dabei helfen:

Basierend auf den Antworten zu diese Fragen und den technischen Spezifikationen, ist anschließend ein Prüfplan zu erstellen.

Prüfplanung

Die Prüfvorgaben dienen zur Erstellung des Prüfplans. Dabei ist es möglich, aus den Vorgaben Cluster zu bilden, z. B. werden einige Prüfmerkmale serienbegleitend, während andere Merkmale nur sporadisch geprüft werden. Auf dieser Grundlage werden zwei Pläne erstellt: Einer für die serienbegleitende Prüfung und einer für die Wareneingangsprüfung.

Im Prüfplan werden die Prüfvorgaben in konkrete Anweisungen für die Mitarbeiter umgesetzt. Er legt die Reihenfolge der Prüfvorgänge fest. Daraus können dann Prüflose erzeugt werden, die von den Mitarbeitern abgearbeitet werden.

Prüfpläne sind für einen bestimmten Artikel gültig, wobei im einfachsten Fall eine 1:1 Zuordnung zwischen Artikel und Prüfplan besteht. Lassen sich einzelne Artikel zu Gruppen zusammenfassen, bietet sich die Familienprüfplanerstellung an. So ist nur ein Plan zu erstellen und je nach Artikel sind individuelle Toleranzgrenzen zugeordnet in der Prüfausführung.

Prüflose &-aufträge

Aus einem Prüfplan werden einzelne Prüflose bzw. Prüfaufträge erzeugt. Kommt ein neuer Artikel in die Anlage, wird für die hinterlegte Artikelnummer der entsprechende Prüfplan aufgerufen und mit Hilfe der Losgrößenvorgabe die notwendige Anzahl an Stichproben im Prüflos berechnet. Das Prüflos enthält alle notwendigen Prüfungen, um z.B. einen Fertigungsauftrag freizugeben. Nach erfolgter Prüfung und getroffenem Prüfentscheid wird die Charge oder ein Los im System freigegeben bzw. bei negativem Prüfentscheid gesperrt.

Prüfprotokoll

Während der Bearbeitung eines Prüfauftrages sind Messwerte zu erfassen. Diese sind gesammelt z.B. einem Fertigungsauftrag zuzuordnen. Mit Hilfe dieser Zuordnung ist es möglich, ein Prüfprotokoll für einen gefertigten Auftrag zu erstellen. Im Prüfprotokoll werden alle Messwerte festgehalten. Hieraus kann eine Qualitätsregelkarte erstellt werden. Hier finden Sie mehr Informationen zur Erstellung von Qualitätsregelkarten.

Häufig wird zwischen einem internen Prüfprotokoll und einem externen Werksprüfzeugnis unterschieden. Die interne Prüfungen umfassen in der Regel mehr Werte als später auf dem Werksprüfzeugnis zu finden sind.

Arten einer Prüfung

Eine Prüfung kann auf unterschiedliche Weise durchgeführt werden. Bei einer subjektiven Prüfung entscheidet die prüfende Person aufgrund ihrer individuellen Wahrnehmung über das Prüfergebnis. Beispiele sind eine Geschmacksprobe, die Sichtprüfung von lackierten Teilen oder die Beurteilung einer Rauheit.

Um die Subjektivität zu minimieren, können objektive Prüfverfahren eingesetzt werden. Hier unterscheidet man zwischen messtechnischen Verfahren und der Prüfung mit Lehren. Lehren sind Vorrichtungen, in die z. B. ein Bauteil eingelegt wird. Passt das Bauteil in die Lehre, wird es als in Ordnung (i.O.) klassifiziert, andernfalls als nicht in Ordnung (n.i.O.). Zwischen diesen beiden Werten gibt es jedoch viele Graustufen. Diese sind nicht binär klassifizierbar. Die bessere und robustere Bewertungsmöglichkeit ist die messtechnische Prüfung. Ein Beispiel ist die Messung der Länge eines Bauteils mit Hilfe einer Schraube. Durch die quantitativen Werte kann die Fähigkeit des Produktionsprozesses nachgewiesen werden. Mehr Information zur Berechnung von Prozessfähigkeitsindizes finden Sie hier.

Einsatz von Prüfplänen

Serienbegleitende Prüfungen

Die serienbegleitende Prüfung stellt den typischen Anwendungsfall von Prüfplänen in der Produktion dar. Hier werden kritische Merkmale während der laufenden Produktion periodisch in definierter Weise gemessen und protokolliert. Die Stichprobenhäufigkeit variiert gegebenenfalls zwischen den einzelnen Merkmalen - z.B. ist die Geometrie eines Bauteils häufiger zu prüfen als ein aufwändiger Zugversuch. Ziel der serienbegleitenden Prüfung ist es, das Risiko des Nichtentdeckens von Fehlern zu minimieren und gleichzeitig den Prüfaufwand so gering wie möglich zu halten.

Erstmuster

Die Erstmusterprüfung dient in der Regel der Qualifizierung des Produktionsprozesses. Sie wird häufig nach einer Prozessänderung oder bei Produktneuanläufen durchgeführt. Ein neues Produkt erfordert zum Beispiel oft eine temporäre Erhöhung des Stichprobenumfangs.

Wareneingangsprüfung

Die Wareneingangsprüfung konzentriert sich auf die Überprüfung der gelieferten Produkte. Ziel ist die Überprüfung der Übereinstimmung der vom Lieferanten gelieferten Produkte mit den spezifizierten Anforderungen. Eine Form der Wareneingangsprüfung ist das Einscannen von Werksprüfzeugnissen oder die Übernahme von Einzelwerten. Darüber hinaus können eigene Prüfungen erforderlich sein, um die Qualität der gelieferten Chargen sicherzustellen.

Fehlersammelkarten

Die Fehlersammelkarte ist ein einfacher Prüfplan. Auf der Karte sind verschiedene Arten von Fehlern aufgelistet, und der Prüfer fügt bei der Feststellung eines Fehlers einen Strich in die Liste ein. Die Auswertung findet zum Beispiel am Ende einer Schicht statt, an der die einzelnen Striche zusammengezählt werden.

Eine Fehlersammelkarte ist schnell und einfach zu erstellen. Gerade bei akuten Qualitätsproblemen bietet sich dieses Instrument an, um in kurzer Zeit einen Überblick zu erhalten. Nachteilig sind die fehlenden quantitativen Werte und die Fehleranfälligkeit der manuellen Dokumentation.

Digitale Prüfplanung mit DatenBerg

Bei der Wahl der richtigen Prüfplanungssoftware sind verschiedene Anforderungen zu berücksichtigen. Für den Prüfplanersteller ist eine einfache Verwaltung und flexible Konfiguration der Prüfpläne wichtig. Die Anbindung von Prüfmitteln sollte möglichst einfach mit vordefinierten Standardschnittstellen zu Messmittelboxen funktionieren. Für den Prüfer ist eine einfache Eingabemaske mit möglichst wenig Fehlermöglichkeiten und wenigen Klicks vorteilhaft. Die QS benötigt Möglichkeiten zum einfachen Nachweis der Prozessfähigkeit. Diese Anforderungen sind in die Entwicklung unseres Arbeits- und Prüfplanmoduls eingeflossen. Ziel war es, eine einfache Möglichkeit zu schaffen, Arbeitsanweisungen mit der Prüfwerterfassung zu kombinieren. Das Ganze webbasiert, so dass Prüfungen einfach mobil möglich sind. Durch die Möglichkeit der Kombination mit der automatischen kontinuierlichen Messdatenerfassung ist es auch möglich, viele Prüfungen direkt zu automatisieren. Ein umfangreiches Versionierungssystem sowie ein Rollen- und Rechtemanagement sind ebenfalls integriert. Damit ist nachvollziehbar, wer wann was geändert oder geprüft hat. So steht einem positiven nächsten Audit nichts mehr im Wege.

Hier lesen Sie mehr zu unserem Modul "Arbeits- und Prüfpläne".

Das Bild zeigt ein Tablet auf dem die DatenBerg Prüf- und Arbeitsplanung offen ist. Ein Mitarbeiter führt gerade eine serienbegleitende Prüfung aus.

Prüfplan & Prüfgeräte

In einem Prüfplan wird festgelegt, welche Messmittel zu verwenden sind. Die Übertragung der Messmittel in den Prüfplan kann fehleranfällig sein. Schnell ist ein Komma verrutscht oder ein Tippfehler eingeschlichen. Eine automatisierte Übernahme der Messwerte schafft hier Abhilfe. Messmittel verschiedener Hersteller können über eine Messmittelbox an einen Rechner angeschlossen werden. Im Prüfprogramm kann dieser Anschluss einem Wertfeld zugeordnet und direkt ausgelesen werden.

Q&A

Was heißt Prüfplan auf Englisch?

Im Englischen wird ein Prüfplan mit Inspection plan oder sample plan übersetzt.

Was ist eine Prüfplanung?

Die Prüfplanung legt fest, welche Merkmale von wem, wann, wie oft und mit welchem Messmittel geprüft werden.

Was ist der Unterschied zwischen Prüfplan und Prüflos?

Im Prüfplan wird u.a. festgelegt, wer, wann, was, wie und wie oft zu messen hat. Daraus wird ein Prüflos für einen konkreten Prüfauftrag erzeugt.

Was ist eine webbasierte Prüfplanung?

Bei der webbasierten Prüfplanung werden Prüfpläne im Webbrowser erstellt, konfiguriert und Prüflose bearbeitet. Dies hat den Vorteil, dass die Prüfausführung auch von mobilen Endgeräten aus von nahezu jedem Ort in der Produktion erfolgen kann.

Was ist eine dynamische Prüfplanung?

Bei der statischen Prüfplanung werden die Prüfvorgaben wie z.B. der Stichprobenumfang fest hinterlegt. Bei der Dynamisierung kann der Stichprobenumfang in Abhängigkeit von der aktuell im System vorhandenen Varianz variiert werden.

Konfiguration des Gateway

Aufbau Gateway Kommunikation

Das Gateway fungiert als Bindeglied zwischen einer Datenquelle (z.B. einer Steuerung) und der smartPLAZA. Das Gateway kommuniziert mit der Datenquelle, ruft die eingestellten Daten selbständig ab, transformiert diese und sendet die Daten an die smartPLAZA. Das Gateway kann auf dem gleichen Server wie die smartPLAZA installiert sein oder auf einem anderen Server laufen. Falls keine Verbindung zur smartPLAZA aufgebaut werden kann, puffert das Gateway die Daten lokal, bis sie weitergeleitet werden können.

Das Gateway kann in Windows-, Linux- und Docker-Umgebungen betrieben werden.

Konfigurationsdatei

Die Konfiguration für alle Datenquellen ist in der Datei config.json hinterlegt. Die Datenquellen sind als JSON-Objekte mit den folgenden Parametern gelistet:

Beispielkonfigurationsdatei

Die folgende Beispielkonfiguration schreibt in eine Tabelle "Anlage2". Der Schreibschlüssel ist bekannt und die Daten werden von einer OPC UA Quelle geholt. Die Daten werden an den DatenBerg Cloud Service gesendet. Die Parameter der OPC UA Quelle sind im Abschnitt "OPC UA" näher definiert.

 "bucket": "Anlage2",
        "writeKey": "1111111",
        "source": "opcua",
        "params": {}

Parameter für CSV und Excel

Folgende Parameter müssen für eine CSV- bzw. Excel-Datei definiert werden:

Mögliche Werte für "monitoring":

OPC UA

Eine OPC UA Datenquelle wird über einen OPC Verbindungsstring angesprochen. Das Gateway funktioniert dabei als Client, um Daten von einem OPC UA Server abzurufen. In der Antwort werden dann die einzelnen angefragten Datenpunkte übertragen.

Parametrisierung OPC UA

Die allgemeinen Parameter sind wie folgt zu definieren:

Optional können die folgenden Parameter mit übergeben werden:

Für das Monitoring können folgende Parameter definiert werden:

Optionen für "ignore":

Beispiel für einen zyklischen OPC UA Abruf

Im folgenden Beispiel werden Daten von einer Siemens S7-Steuerung mit der IP-Adresse 10.255.112.113 übertragen. Die Abfrage erfolgt alle 5 Sekunden über den Port 4840. Dabei werden zwei OPC UA Variablen (z.B. ns=4, i=4) übertragen. Die Variablennamen werden direkt über ein Label übergeben. Auch wenn kein Benutzer für die Authentifizierung benötigt wird, muss ein leerer Benutzer mit leerem Passwort übergeben werden.

 {"bucket": "Anlage2",
        "writeKey": "123456",
        "source": "opcua","params": {
            "monitoring": "timer",
            "interval": 5,
            "servers": [
                {
                    "connection": "opc.tcp://10.255.112.113:4840",
                    "data": [
                        "ns=4;i=4",
                        "ns=4;i=6"
                    ],
                    "labels": [
                        "Temperatur 1",
                        "Druck"
                    ],
                    "user": "",
                    "password": ""
                }
            ]
        }
    },

MQTT

Der Datenaustausch mit MQTT erfolgt über einen zentralen MQTT Broker, an den ein Gerät Daten sendet und der diese an Empfänger weiterleitet. Das Gateway " subscribed " sich auf ein zu definierendes Topic und leitet alle empfangenen Daten an die smartPLAZA weiter. In diesem Blogbeitrag gehen wir näher auf die Funktionsweise von MQTT ein.

Parametrisierung MQTT

Für den Empfang von Daten via MQTT müssen folgende Parameter definiert werden:

Optional können diese Parameter definiert werden:

Beispielkonfiguration MQTT

Im folgenden Beispiel wird eine Verbindung zu einem MQTT Broker mit der IP-Adresse 10.123.45.20 auf Port 1883 hergestellt. Es werden alle Daten empfangen die auf dem auf Untertopics des Topic "Data" kommuniziert werden. Die Daten werden bereits als JSON versendet und können direkt weitergeleitet werden.

[
    {
        "bucket": "mqtt_daten",
        "writeKey": "123456789",
        "source": "mqtt",
        "params": {
            "host": "10.123.45.20",
            "port": 1883,
            "topic": "Data/#",
            "type": "json"

        }

    }
]

HTTP

Für den Abruf von Daten via HTTP müssen folgende Parameter definiert werden:

Optional können diese Parameter definiert werden:

Mögliche Werte für "monitoring:

Modbus

Bei der Modbus-Kommunikation fordert ein Modbus-Client Daten von einem Modbus-Master an. In der Antwort überträgt der Master die aktuellen Prozesswerte. Das Gateway fungiert als Client, der die Verbindung zu einem Master herstellt. In diesem Blogbeitrag finden Sie ausführliche Informationen zum Modbus-Protokoll.

Parametrisierung Modbus

Die Konfiguration legt fest, welche Daten von welchen Adressen des Modbus-Masters abgefragt und in eine Tabelle geschrieben werden sollen. Für den Datenempfang über Modbus müssen folgende Konfigurationsparameter definiert werden:

Beispielkonfiguration für Modbus

Im folgenden Beispiel werden von einem Kompressor mit der IP-Adresse 10.123.9.11 verschiedene Parameter über Modbus abgefragt. Aus der Modbusbeschreibung geht hervor, dass unter der Adresse 54 die Gesamtstunden und unter der Adresse 57 der Netzsolldruck abgerufen werden können. Dies wäre eine mögliche Konfiguration davon:

{
        "bucket": "Modbus",
        "server": "http://localhost",
        "writeKey": "12345678",
        "source": "modbus",
        "params": {
            "server": "10.123.9.11",
            "interval": 5,
            "variables": [
                {
                    "id": "Gesamtstunden",
                    "type": "sint16",
                    "address": 53
                },
                {
                    "id": "Netzsolldruck",
                    "type": "sint16",
                    "address": 57
                }
             ]
     }

Messdatenerfassung

Grundlagen der Messdatenerfassung

Um die Messdaten zu erfassen, wird eine sogenannte Messkette aufgebaut. Diese betrachtet den gesamten Weg von der Signalerfassung bis zur Signalausgabe. Am Anfang der Messkette steht ein Messwertaufnehmer bzw. Sensor. Dieser reagiert auf physikalische Veränderungen der Umgebung in einer bestimmten Art und Weise. Bei einem Temperatursensor zum Beispiel ändert sich der Widerstand eines Materials mit steigender Temperatur. Eine Wandlerelektronik wandelt diese Widerstandsänderung in ein Signal um.

Dieses Signal wird dann in einem Ausgabegerät aufgezeichnet und visualisiert. Früher war das ein Datenschreiber, der den Signalverlauf auf einem Stück Papier aufzeichnete. In der heutigen digitalen Welt werden die Daten digital gespeichert und oft direkt automatisiert ausgewertet.

Typen der Messdatenerfassung

Die einfachste Art der Messwerterfassung ist die Analoganzeige. Hier bewegt sich ein Zeiger auf einer festen Skala entsprechend der Änderung der Messgröße. Die Digitalanzeige wandelt das Messsignal in eine Zahl um, die oft direkt am Messgerät angezeigt wird. Datenlogger zeichnen ein anliegendes Messsignal kontinuierlich auf. Ältere Generationen schreiben das Signal auf ein Endlospapier. Neuere Modelle speichern die Daten digital und können sie oft als .csv-Datei exportieren. Wird der Messwert direkt digital erfasst, d.h. in ein Softwaresystem übertragen, kann das Messergebnis direkt ausgewertet und dezentral visualisiert werden.

Software für die Messdatenerfassung

Mit Microsoft Excel

Tabellenkalkulationsprogramme eignen sich so ziemlich für alles. Hier können auch Prüfvorlagen erstellt und Messdaten erfasst werden. Ein großer Vorteil ist die hohe Flexibilität und die niedrigen Kosten – eine Lizenz für Excel ist oft sowieso verfügbar. Doch im Vorteil der Flexibilität liegt auch der Nachteil: Fehlende Nutzerberechtigungen, keine direkte Versionierung oder integrierte Freigabeprozesse, von Manipulationssicherheit ganz zu schweigen. Zusammenfassend lässt sich sagen, dass Tabellenkalkulationsprogramme für eine grundlegende Umsetzung vielleicht ausreichend sind, bei einem Serienbetrieb sollte der Umstieg auf andere Software in Erwägung gezogen werden.

Mit Node-Red

Node-Red ist ein browserbasiertes Werkzeug zur Erstellung von Workflows. Per Drag & Drop werden einzelne Komponenten miteinander verbunden und so eine Messkette realisiert. Für die Schnittstellen stehen verschiedene Bibliotheken zur Verfügung. Mit dem Tool können schnell Prototypen erstellt werden. Soll jedoch ein stabiler Serienbetrieb gewährleistet werden, fehlt aus unserer Sicht die Möglichkeit der Versionsverwaltung. Auch das Testen nach einer Änderung im Code ist oft aufwändig. Um Daten dauerhaft zu speichern, muss eine externe Datenbank bereitgestellt und gepflegt werden.

In SAP

SAP greift in verschiedenen Modulen auf Messdaten zurück. An erster Stelle ist hier das Modul QM zu nennen. Von Haus aus bringt SAP - sowohl in R3 als auch in S4 HANA - keine Anbindungsmöglichkeit zur Messdatenerfassung mit. Allerdings können in SAP Prüfpläne erstellt und verwaltet werden. Ebenso können Prüfaufträge angelegt und rückgemeldet werden. Um hier eine Erfassungsmöglichkeit anzubinden, wurde die SAP QM IDI Schnittstelle geschaffen. Über diese Schnittstelle können externe Systeme, wie z.B. die DatenBerg smartPLAZA, mit SAP kommunizieren. Die Integrationstiefe kann dabei variieren. Je nach Ausprägung können mehr oder weniger Funktionalitäten in SAP oder einem externen System abgebildet werden. Hier sollte individuell beraten und die Vor- und Nachteile abgewogen werden.

Mit der DatenBerg smartPLAZA

Die smartPLAZA bietet sowohl die Möglichkeit, Prüfpläne zu verwalten und dabei Messgeräte anzubinden, als auch Messdaten kontinuierlich aufzuzeichnen. Je nach Anforderung kann die Software über eine No-Code-Oberfläche konfiguriert und die Messdaten manipulationssicher in einer Datenbank gespeichert werden. Über integrierte Analysefunktionen können direkt Statistiken berechnet und Messwertverläufe analysiert werden. Über Dashboards können die Messdaten in Echtzeit visualisiert und auf mobilen Endgeräten dargestellt werden. Die smartPLAZA integriert sich nahtlos in ERP-Systeme und kann Prüfdaten z.B. direkt in SAP schreiben

Beispiele für Messdatenerfassungssysteme

Ein Messdatenerfassungssystem besteht aus mehreren Komponenten. Wir zeigen hier zwei Beispiele für ein kontinuierliches und ein triggerbasiertes Messdatenerfassungssystem.

Hallenmonitoring mit einer Siemens S7-1500

Das Problem: Temperaturdaten manipulationssicher abspeichern und automatisiert auswerten

In zertifizierten Umgebungen ist es wichtig, das Erfüllen von kritischen Prozessfenstern nachzuweisen. In der Lebensmittelindustrie ist dies zum Beispiel die Hallentemperatur in kritischen Bereichen wie einem Kühlhaus. Hierzu kann eine SPS wie die S7-1500 mit angeschlossenen Temperaturfühlern Einsatz finden. Voraussetzung für die Zertifizierung ist jedoch die manipulationssichere Speicherung der Daten und die Aufbewahrung über einen definierten Zeitraum. Die manuelle Dokumentation der Messwerte auf Papier ist eine Möglichkeit. Dieser ist jedoch fehleranfällig, kann vergessen werden und schlimmstenfalls geht Papier - und damit die Datenaufzeichnung - verloren. Werden die Daten direkt in der Steuerung auf eine Speicherkarte geschrieben, kann diese überlaufen. Natürlich passiert dies sehr wahrscheinlich dann, wenn man die Daten benötigt. Egal ob Speicherkarte, USB-Stick oder auf Papier - ein Mensch muss diese immer auswerten. Wie kann dies automatisiert werden?

Die Lösung: DatenBerg smartPLAZA

Mit Hilfe der smartPLAZA ist es möglich, die von der SPS erfassten Messwerte abzurufen und an zentraler Stelle zu speichern. Die Messdaten werden sicher in einer Datenbank abgespeichert, in einem Leitstand visualisiert und automatisiert auf hinterlegte Spezifikationsgrenzen geprüft. Liegt eine Abweichung vor, werden definierte Empfänger mit einer E-Mail oder SMS benachrichtigt.

Mehrwerte mit der Messdatenerfassung in der smartPLAZA

Im Audit sind die Daten griffbereit – mit wenigen Klicks kann der durch den Auditor gewünschte Zeitbereich visualisiert und geprüft werden. Über einen monatlichen Report werden definierte Empfänger über die aktuelle Entwicklung der Messdatenverläufe benachrichtigt. Im Leitstand sind für die Schichtleitung nur die relevantesten Messwerte in Echtzeit visualisiert – mit einem Klick können diese jedoch tiefer eintauchen und schnellstmöglich agieren. Durch die automatisierte Benachrichtigung via E-Mail oder SMS sind die Kollegen jedoch sowieso oft direkt dann benachrichtigt, wenn ein Problem auftritt.

Messchieber an einer Messmittelbox

Das Problem: Messdatenerfassung am Messschieber

Neuere Messschieber zeigen den gemessenen Wert oft schon direkt digital an. Dieser muss dann abgelesen und übertragen werden. Dabei geht schnell einmal eine Nachkommstelle verloren oder das Komma sitzt falsch. Vor allem geht jedoch Zeit verloren.

Die Lösung: Messmittelbox und Datenerfassung in der smartPLAZA

Messdaten sollen zentral gespeichert und direkt ausgewertet werden. In der smartPLAZA können Prüfpläne erstellt und Eingabemasken direkt mit Prüfmitteln verknüpft werden. Dazu wird der Messschieber über eine Messmittelbox mit einem PC verbunden. In der digitalen Eingabemaske wählt der Prüfer das entsprechende Feld aus, prüft das Werkstück und betätigt den Übernahmetaster. Über eine hinterlegte Konfiguration wird der Messwert direkt im System an der richtigen Stelle abgelegt.

Der Mehrwert: Effizienz und Genauigkeit

Die Verwendung einer Messmittelbox bietet mehrere Vorteile:

Q&A zur Messdatenerfassung

Was ist eine Messkette?

In einer Messkette sind verschiedene Bauteile miteinander verbunden, die alle Funktionen von der Umwandlung einer nichtelektrischen Größe in ein elektrisches Signal bis zur Anzeige des Messwertes in einer für den Menschen lesbaren Form übernehmen.

Was ist der Unterschied zwischen einer Messgröße und einem Messwert?

Die Messgröße ist die Größe, deren Wert durch die Messung bestimmt werden soll. Der Messwert ist der gemessene Wert einer Messgröße, z. B. die Anzeige eines Messgeräts.

Import von .CSV-Dateien

Funktionsweise .CSV-Import

Nach einem Export liegen die Daten oft als .csv-Datei oder in einem ähnlichen Format vor. Diese können statisch in smartPLAZA eingelesen werden. Liegt zu einem späteren Zeitpunkt ein aktuellerer Auszug vor, so kann dieser einfach manuell in die Software nachgeladen werden, wenn die Struktur zur identisch ist.

Anleitung zum .CSV-Import

Schritt 01: CSV-Datei vorverarbeiten

Für eine optimale Vorverarbeitung ist darauf zu achten, dass in der .csv-Datei z.B. zur Trennung von Dezimalstellen ein Punkt anstelle eines Kommas verwendet wird und dass die Datei gleiche Längen pro Zeile hat.

Schritt 02: Datenquelle hinzufügen

Schritt 03: Wizard zum Import von .csv-Dateien

Schritt 04: Layout auswählen

In diesem Fenster können Sie das Layout der Tabelle auswählen. Wenn jede Zeile bereits mehrere Spalten enthält, können Sie die Option "Zeilenorientiert" wählen. Wenn die Tabelle aus Name-Wert-Paaren besteht, wählen Sie die Option "Spaltenorientiert".

Wenn Sie "Zeilenorientiert" ausgewählt haben, können Sie direkt zum nächsten Schritt springen, indem Sie auf "Weiter" klicken.

Bei der Option "Spaltenorientiert" muss eine eindeutige ID definiert werden. Für alle Zeilen, die z.B. zu einem Fertigungsauftrag gehören, ist dies der Fertigungsauftrag. Die ID kann auch aus mehreren Spalten bestehen, diese fügen Sie durch Klicken auf das "+" hinzu. Gleiches gilt für die Option "Spaltennamen". Bei Messwert wählen Sie die Spalte mit dem Messwert aus. Sind weitere Informationen wie Toleranzgrenzen oder Sollwerte vorhanden, können Sie diese ebenfalls über die Option "Wertfeld hinzufügen" integrieren. Anschließend gelangen Sie über "Weiter" zum nächsten Konfigurationsschritt.

Schritt 05: Weitere Einstellungen

Daten gruppieren

Funktionsweise

Zeitreihen, wie z. B. die Hallentemperatur, sind aneinandergereihte Werte, die nacheinander analysiert werden. Bei chargenbezogenen Prozessen, wie z.B. Kurven eines Mischprozesses oder der Verlauf eines Gießprozesses, sollte jedoch der gesamte Kurvenverlauf betrachtet werden. Dazu kann in der smartPLAZA ein Kurvenverlauf zu einem oder mehreren Werten gruppiert werden. So wird z.B. aus einem Temperaturverlauf durch Integralbildung der Temperatureintrag. In diesem Hilfebeitrag zeigen wir, wie die Rohdaten gruppiert werden können. Dazu muss ein für einen Verlauf eindeutiger Wert bestimmt werden. Anschließend kann die Transformation, zum Beispiel Integral oder Mittelwertbildung je Messwert definiert werden.

Die folgende Abbildung zeigt im oberen Teil den Verlauf der transformierten Werte. Durch Anklicken eines Verlaufs wird im unteren Bildbereich der komplette Verlauf des gruppierten Merkmals in der Analyse angezeigt.

Anleitung zum Gruppieren von Daten

1) Datenquelle und Merkmal auswählen

2) Anpassung der Transformation je Messmerkmal

Tabellen verknüpfen

Funktionsweise von Tabellen Verknüpfen

Verschiedene Datenquellen innerhalb eines Produktionsprozesses werden oft in unterschiedlichen Tabellen gespeichert. Um Zusammenhänge innerhalb einer Prozesskette zu analysieren, ist es sinnvoll, die Tabellen miteinander zu verknüpfen. So können Ursache-Wirkungsbeziehungen analysiert und Hypothesen validiert werden. Dazu werden Spalten mit Metaattributen (z.B. Fertigungsauftragsnummer) aus zwei oder mehreren Tabellen miteinander verknüpft. Auf diese Weise kann die smartPLAZA die Tabellen miteinander verknüpfen. Ebenso kann definiert werden, welche Spalten zwar nicht als Schlüssel-ID verwendet werden können, aber für die gleiche Darstellung auf der X-Achse in Diagrammen verwendet werden dürfen (sog. "einfache Verknüpfung"). Dies ist z.B. häufig bei der Uhrzeit der Fall.

Anleitung zum Verknüpfen von Tabellen

Schritt 01: Datenquelle auswählen

Schritt 02: Starke Verknüpfung für Schlüssel-ID hinterlegen

Das Schlüssel Attribut für die starke Verknüpfung sollte eindeutig in beiden Tabellen sein, sprich jede Zeile einen anderen Wert in dieser Spalte haben. Falls dies nicht der Fall sein sollte, können Sie auch eine berechnete Meta-Spalte hinzufügen, welche eine eindeutige ID berechnet.

Schritt 03: Einfache Verknüpfung für gleiche Meta-Attribute hinterlegen

Tipp: Fügen Sie am besten direkt noch einfache Verknüpfungen für Spalten wie ein Datum hinzu. Hierzu folgen Sie der Anleitung in Schritt 02, nur sparen sich den letzten Klick auf den Pfeil vor dem Merkmalsnamen. In der obigen Abbildung ist dies auf der linken Seite unter "Einfache Verknüpfung" dargestellt.

Schnittstellen zu Prüfmitteln

Typische Schnittstellen zu Prüfmitteln

Schnittstellen zu Prüfmitteln gibt es wie Sand am Meer. Sicherlich gibt es n+1 Möglichkeiten. Wir haben uns daher auf eine Auswahl gängiger Varianten beschränkt. Das AQDEF-Format mit .dfq-Dateien wird von vielen Herstellern verwendet. Das QML-Format überträgt die gleiche Struktur in die XML-Technologie. Messmittelboxen werden häufig dann eingesetzt, wenn das Prüfmittel keinen direkten Ethernetanschluss besitzt. Den Abschluss bilden die protokollbasierten Schnittstellen, die herstellerspezifisch implementiert sind und daher sehr spezifische, auf das Prüfmittel zugeschnittene Funktionen bieten können. Natürlich gibt es neben diesen Schnittstellen noch weitere, die auf OPC UA, Modbus oder anderen Protokollen basieren. Mit den hier genannten Möglichkeiten ist jedoch aus unserer Erfahrung bereits ein großer Teil abgedeckt.

Advanced Quality Data Exchange Format (AQDEF)

Das Format AQDEF wurde gemeinsam von einem Konsortium aus Automobil OEMs und Zulieferern entwickelt. Die Schnittstelle zur Prüfmitteln definiert dabei ein Datenmodell, dass aus den folgenden drei Komponenten besteht: Bauteilen, Merkmalen und Messwerten. Die Informationen werden über Dateien ausgetauscht. Diese gliedern sich in eine Beschreibungsdatei, welche wie der Name schon sagt, Meta-Informationen beinhaltet. Die realen Messwerte finden sich in der Werte-Datei. Alle Informationen können auch über eine gemeinsame Datei mit der Endung „.dfq“ abgerufen werden.

Die Daten werden dabei zeilenweise in die Dateien geschrieben und werden über einen Schlüssel im Format „Kxxxx“ identifiziert. Im AQDEF-Standard können die einzelnen Schlüssel nachgelesen werden.

Hier ist ein Beispiel für den Übertrag eines Messwertes (Schlüssel K0001) zum Zeitpunkt (K0004) mit einer Chargennummer (K0006).

K0001 19.8
K0004 25.08.23/13:08:34
K0006 Charge0815

Quality Markup Language (QML)

QML ist eine XML-basierte Sprache, die speziell für die Beschreibung von Messdaten und Messprozessen entwickelt wurde. Sie ermöglicht die detaillierte Definition von Messaufgaben und -ergebnissen. QML wird häufig in Verbindung mit Prüfgeräten und MES-Systemen verwendet, um Messdaten zu beschreiben und zu übertragen. Es bietet eine hohe Flexibilität bei der Konfiguration von Messprozessen. QML basiert auf der XML-Technologie. Damit bietet sich mehr Flexibilität in der Übertragung und Auswertung als zum Beispiel das AQDEF-Format.

Das Ergebnis einer Messung wird dabei wie folgt beschrieben:

<V id="{F50BC552-3A1F-4E12-A057-5C665F67E78C}" k0001=" 6.70000000000000E+0002" k0002="0" k0004="1992-05-07T13:43:08" k0006="Charge Nummer1"/>

Weitere Informationen finden Sie in der Dokumentation von der Firma Q-DAS, die Sie hier finden.

Messmittelboxen

Prüfgeräte haben oft individuelle physikalische Stecker als Schnittstellen und sind auf eine besondere Art der Kommunikation angewiesen. Die Messmittelbox ist eine Gerät, das dazu dient, verschiedene Prüfgeräte miteinander zu verbinden. Sie kann als Hub fungieren, um die Kommunikation zwischen Prüfgeräten und übergeordneten Systemen zu erleichtern. Die Boxen haben zum Messgerät hin standardisierte Stecker und zum Erfassungsprogramm hin oft eine USB- oder Ethernet-Schnittstelle. Sie bildet also eine Schnittstelle für Prüfmittel. Für die Kommunikation zwischen Messmittelbox und Prüfgerät liefern die Hersteller der Box oft direkt passende Treiber mit. Somit muss nur der Treiber für die Messmittelbox konfiguriert werden. Häufig wird auch ein Fuß- oder Handschalter an die Box angeschlossen, der die Messwertübertragung vom Prüfgerät zur Anwendungssoftware auslöst.

Protokollbasierte Schnittstellen

In vielen industriellen Anwendungen und Kommunikationssystemen sind protokollbasierte Schnittstellen wie das ASCII-Protokoll weit verbreitet. Diese Schnittstellen definieren klare Regeln und Strukturen, die den Geräten ermöglichen, zueinander zu kommunizieren. Eines der ältesten und am weitesten verbreiteten Kommunikationsprotokolle ist das ASCII-Protokoll (American Standard Code for Information Interchange). Es verwendet lesbare Textzeichen, um Daten zwischen Geräten auszutauschen, wodurch es einfach zu implementieren ist. ASCII-Protokolle werden in Bereichen wie Maschinensteuerung, Datenerfassung und Sensorintegration eingesetzt. Sie ermöglichen die zuverlässige Übertragung von Informationen in einem von Menschen lesbaren Format, was die Fehlersuche und -behebung erleichtert. Als Nachteil ist ein fehlender Standard zu sehen, so kann jeder Hersteller ein eigenes Protokollsystem aufbauen. Ebenfalls ist es oft nicht notwendig die Datenübertragung zu quittieren, was womöglich zu einem Datenverlust führen kann.

Art der Übertragung

Kabelgebunden

Bei den kabelgebundenen Lösungen gibt es eine Vielzahl von Ausführungen. Bei größeren Prüfgeräten (z.B. Härteprüfmaschinen, Zugprüfmaschinen) ist eine Ethernet-Schnittstelle üblich. Bei kleineren Geräten, wie z.B. Schieblehren, wird oft eine Verbindung wie RS232 verwendet.

Kabellos

Für den kabellosen Betrieb von Prüfmitteln spricht die höhere Flexibilität und das Wegfallen von möglichen Stolperfallen. Für diverse Messgeräte gibt es Adapter, die Signale via Bluetooth weiterleiten. Dies kann zum Beispiel ein Dongle für die Messmittelbox sein. Als Ersatz zu Bluetooth existieren auch Funklösungen auf eigen entwickelten Standards. Ebenfalls wird WLAN als Kommunikationsmittel von zum Beispiel einer Messmittelbox zum Server eingesetzt.

Auswahl der richtigen Schnittstelle für Prüfmittel

Bei der Auswahl der Schnittstelle sind verschiedene Faktoren zu berücksichtigen. Zum einen die Ausrichtung der Schnittstelle - sollen „nur“ Messdaten empfangen werden oder benötigt das Prüfgerät auch Informationen wie z.B. eine Auftragsnummer? Im letzteren Fall ist es sicherlich sinnvoll, direkt in Richtung AQDEF zu denken. Darüber hinaus ist zu berücksichtigen, wie die Prüfung durchgeführt wird. Hat der Mitarbeiter eine Hand frei für einen Handschalter oder wird ein Fußschalter benötigt? Natürlich muss auch das Gespräch mit dem Prüfgerätehersteller gesucht werden. Wir empfehlen dies immer vor dem Kauf eines neuen Gerätes, da es dann oft einfacher ist, gemeinsam eine Lösung zu finden. Aus der vom Hersteller angegebenen Auswahl muss dann die passende Schnittstelle gefunden werden.

Prüfdaten mit der smartPLAZA abspeichern

Die DatenBerg smartPLAZA ermöglicht die Erfassung von Prüfwerten aus unterschiedlichen Quellen. Für die Kommunikation mit dem Prüfgerät stehen verschiedene Standard-Konnektoren zur Verfügung, um die oben beschriebenen Schnittstellen abzudecken. Bei der Erstellung eines Prüfplans wird ein zu prüfendes Merkmal mit der Schnittstelle verbunden. Bei der Ausführung eines Prüfauftrages genügt dann ein Klick oder eine Schalterbetätigung, um die Messwerte zu übernehmen. Liegen Daten z.B. im AQDEF-Format oder als .xml vor, können diese auch im Hintergrund in definierten Intervallen eingelesen werden.

SQL-Datenbanken in der Produktionsumgebung

Grundlagen von SQL-Tabellen

Eine SQL-Tabellen verwaltet Daten in einer strukturierten Form. Dafür werden relationale Datenbanken wie zum Beispiel PostgreSQL verwendet. Die Tabellen bestehen aus Zeilen und Spalten, wobei jede Zeile einen Datensatz und jede Spalte eine gewisse Datenkategorie (z.B. Ganzzahl, Text, Datum) beinhaltet. Diese Tabellen sind nach einem vordefinierten Schema organisiert, das die Art der gespeicherten Daten festlegt. Mit Hilfe von SQL (Structured Query Language) können Abfragen erstellt werden, um Daten zu suchen, hinzuzufügen, zu ändern oder zu löschen. Primärschlüssel dienen als eindeutige Identifikatoren für Zeilen, während Fremdschlüssel Beziehungen zwischen verschiedenen Tabellen herstellen können. Dies ermöglicht komplexe Abfragen, Berichte und Analysen. Insbesondere ist der Zugriff durch weitere Systeme zur Weiterverarbeitung möglich. Die Abfragesprache SQL ist standardisiert, einzelne Anbieter von Datenbanksystemen implementieren den Standard verschieden.

Es gibt verschiedene Anbieter von SQL-Datenbanken. Von Open-Source Software wie die PostgreSQL zu kommerziellen Anbietern wie Oracle. Unterschiede existieren bei Themen wie Lizenzierung, unterstützten Datentypen und Betriebssystemen.

Struktur einer SQL-Abfrage

Doch wie sieht der Aufbau einer SQL-Abfrage konkret aus? Eine SQL-Abfrage besteht aus den folgenden Hauptkomponenten:

SQL stellt eine große Anzahl von Funktionen zur Verfügung, die in komplexeren Abfragen zum Einsatz kommen können. Die genaue Syntax und Verwendung kann je nach verwendetem Datenbankmanagementsystem leicht variieren.

Nehmen wir das obige Beispiel: Eine Tabelle mit den Spalten Produktionsauftrag, Losgröße und Gutteile.  Die Abfrage könnte wie folgt aussehen, um die Zeilen auszuwählen, für die die Anzahl der Gutteile größer als die Losgröße ist:

SELECT Fertigungsauftrag, Losgröße, Gut-Teile
FROM Fertigungsdaten
WHERE Gutteile > Losgröße;

Diese Abfrage gibt alle Zeilen zurück, in denen die Anzahl der Gutteile größer als die Losgröße ist. Dazu gibt die Abfrage die Spalten Fertigungsauftrag, Losgröße und Gut-Teile zurück.

Wo finden sich SQL-Tabellen in der Produktion?

SQL-Tabellen können in verschiedenen Systemen und Anlagen in der Produktion entstehen. Spannend ist es, wie kann darauf zugegriffen werden? Wir haben die drei großen Kategorien IT-Systeme, Anlagen und Schatten-IT bewertet.

Nahezu alle IT-Systeme wie ERP, CAQ, MES oder SCADA arbeiten im Hintergrund mit SQL-Tabellen. Häufig hat die hauseigene IT bereits Erfahrung mit Datenzugriffen auf diese Systeme und kann diese selbst erstellen. Aus unserer Erfahrung bringt der Großteil der Hersteller auch die Offenheit für einen Austausch der Daten mit beziehungsweise bietet hierfür Lizenzbausteine an.

Einzelne Anlagen oder Prüfmaschinen können auch eine SQL-Tabelle zur Datenspeicherung verwenden. Insbesondere bei komplexeren Anlagen mit eigenem Rechner ist oft eine eigene Datenbank enthalten. Für den Zugriff ist oft eine Absprache mit dem Anlagenhersteller notwendig bzw. empfehlenswert. Bei einer Integration kann eine separate Lizenz für den Datenzugriff erforderlich sein.

Eine weitere Quelle ist die sogenannte Schatten-IT. Selbstgestrickte und historisch gewachsene Tabellen, die nicht direkt von der IT freigegeben wurden. Ein Beispiel sind Datenbanken, die mit Microsoft Access verwaltet und gefüllt werden. Hier fallen zwar keine Lizenzkosten für den Zugriff an, aber die Systeme sollten gut verstanden und dokumentiert sein, um einen stabilen Datenabruf zu gewährleisten. Natürlich existieren auch genug Anwendungen, die erfolgreich auf MS Access aufbauen und nicht zur Schatten-IT zählen, dies ist nur als illustratives - aber reales - Beispiel gedacht.

ODBC-Verbindungen für SQL-Tabellenzugriffe

ODBC (Open Database Connectivity) ist eine standardisierte Schnittstelle, die den Zugriff auf Datenbanken unabhängig von der zugrunde liegenden Datenbanktechnologie ermöglicht. Die Schnittstelle fungiert als Brücke zwischen Anwendungen und Datenbanken, indem es eine einheitliche Kommunikationsmethode bereitstellt. Dies geschieht über ODBC-Treiber, der für jede Datenbank spezifisch implementiert ist. Mit einem Treiber und einem datenbankspezifischen ODBC-Connection-String kann auf die Daten zugegriffen werden. Auf dieser Website sind typische Verbindungsstrings gelistet.

Die Verwendung von ODBC bietet Vorteile wie leichte Anbindung, da Anwendungen nicht direkt an eine bestimmte Datenbank gebunden sind, sondern über den Treiber kommunizieren. Dies erleichtert den Wechsel zwischen verschiedenen Datenbanken. Daneben ist eine hohe Stabilität gegeben. ODBC unterstützt ebenfalls eine Vielzahl von Datenbankmanagementsystemen.

Um eine Verbindung über ODBC herzustellen, muss eine Anwendung den entsprechenden ODBC-Treiber installieren und konfigurieren. Dies beinhaltet die Definition von Datenquellen (Data Sources), die die Verbindungsinformationen enthalten. Danach kann die Anwendung über ODBC SQL-Abfragen an die Datenbank senden und Ergebnisse empfangen.

Der ODBC-Zugriff auf SQL-Tabellen ist dargestellt. Es werden die Komponenten Anwendung, ODBC-Treiber und SQL-Tabelle gezeigt. Ebenfalls ist ein Beispel für einen ODBC-Connection-String gegeben.

Fallstudie: SQL-Tabellen in der Gummimischerei

Problem: Effiziente Verwaltung von Maschinen- und Labordaten in Echtzeit in der Gummimischerei

Bei der Compoundierung von Kautschukmischungen besteht die dringende Notwendigkeit, Maschinen- und Labordaten in Echtzeit zu erfassen, zu verarbeiten und zu verwalten. Diese Daten sind für die Überwachung der Produktionsprozesse, die Qualitätskontrolle und die schnelle Reaktion auf Qualitätsschwankungen von entscheidender Bedeutung. Da die Überwachung in Echtzeit kritisch ist, stellt sich die Frage, wie eine effiziente Erfassung und Verarbeitung realisierbar ist.

Herausforderungen sind dabei die Echtzeitfähigkeit, die permanente Speicherung der Daten sowie die Flexibilität, neue Datenpunkte (z.B. Sensoren) einfach in die Infrastruktur zu integrieren.

Lösung: Verwendung von separaten SQL-Tabellen für Maschinendaten und Labordaten, Konsolidierung durch ODBC-Schnittstelle

Um das Problem der Echtzeitdatenverwaltung in der Gummimischtechnik zu lösen, bietet sich eine sorgfältig strukturierte SQL-Datenbank an. Für Maschinen- und Labordaten ist jeweils eine Tabelle zu definieren. Dadurch findet eine Trennung der verschiedenen Datentypen statt und die Datenstruktur ist optimiert. Die Befüllung der SQL-Tabellen findet durch ein Transferskript aus der Steuerung statt.

Die Konsolidierung und Auswertung dieser Daten erfolgt dann über eine ODBC-Schnittstelle in der Software DatenBerg SmartPlaza im Data Warehouse. Über diese Schnittstelle werden die Daten aus den verschiedenen Tabellen gesammelt und in einer zentralen Plattform zusammengeführt. Hier finden Vergleiche der Daten und Analysen statt. Über einen Knopfdruck wird ein definierter Berichten ausgegeben.

Ergebnis: Verbesserte Echtzeitüberwachung, Qualitätskontrolle und Rückverfolgbarkeit

Die Implementierung dieser Lösung bietet zahlreiche Vorteile. Durch die Verwendung von getrennten SQL-Tabellen für Maschinendaten und Labordaten kann bei Ausfall eines Systems (Recorder, Maschinendaten, Prüfmittel) das andere System die Daten weiter aufzeichnen. Auch Änderungen des Schemas (z.B. zusätzliche Prüfmerkmale) sind leicht umsetzbar.

Die Datenkonsolidierung und -analyse in DatenBerg SmartPlaza ermöglicht eine umfassende Überwachung und Steuerung der Produktionsprozesse. Qualitätsschwankungen sind so bis auf Einzelwerte zurückverfolgbar und Reaktionen sind unmittelbar ableitbar.

Durch die Entkopplung der Tabellen sind die Maschinendaten bereits drei Sekunden nach Produktionsende im Auswertesystem smartPLAZA sichtbar. Dies ermöglicht eine Überwachung nahezu in Echtzeit und ein sofortiges Eingreifen bei Abweichungen oder Problemen.

Die gewählte Lösung ermöglicht auch einen Handshake zwischen den verschiedenen Systemen. Dabei schreibt das Lesesystem in der Herkunftstabelle in einer definierten Spalte (z.B. „Handshake“) z.B. eine „0“ in eine „1“. Mit einem definierten Job können in der Herkunftstabelle alle Zeilen mit einer „1“ in der Spalte „Handshake“ gelöscht werden, da diese bereits vom Folgesystem gelesen wurden.

Insgesamt führt diese Lösung zu einer effizienten und zuverlässigen Produktionsüberwachung in Echtzeit, ermöglicht die schnelle Erkennung und Behebung von Qualitätsproblemen und trägt zur kontinuierlichen Verbesserung der Prozesse in der Gummimischanlage bei.

Fazit & Bewertung SQL in der Produktion

SQL-Datenbanken bieten einen strukturierten Aufbau. Wenn Daten einmal in eine Tabelle weggeschrieben werden, können diese einfach abgelesen werden. Damit kann ein stabiler Austausch zwischen Systemen ermöglicht werden. Somit eignen sich die Datenbanken sowohl für den Transfer zwischen Systemen bzw. Geräten, jedoch auch für einen historischen Speicher. Die Tabellen wollen jedoch gefüttert werden. Hierzu bedarf es wiederum anderer, maschinennäheren Schnittstellen wie zum Beispiel OPC UA oder Modbus.

MQTT in der Industrie

Einführung in Aufbau & Struktur von MQTT

MQTT (Abkürzung für Message Queuing Telemetry Transport)  ist ein Datenaustauschprotokoll. Dabei tauschen zwei Geräte (dem "Client") über einen sogenannten Broker Daten miteinander aus. Ein Client kann dabei Daten an einen Broker senden („publish“ – wir übersetzen dies mit veröffentlichen) und ebenfalls Daten von einem Broker erhalten („subscribe“ – wir übersetzen dies mit abonnieren). Beim Veröffentlichen gibt der Sender-Client neben der Nachricht (dem "Payload") ein "Topic" (wir übersetzen dies mit Kanal) an, auf welches er es veröffentlichen möchte. Der Empfänger-Client abonniert diesen Kanal und bekommt die Nachricht aus diesem Kanal vom Broker weitergereicht.

Zu besseren Verständlichkeit haben wir das anhand eines Paketversands illustriert. Zwei Paketboten veröffentlichen auf den Topics „Grün“ bzw. „Rot“ ihre Pakete. Diese werden alle über den zentralen Broker versandt. Dieser sortiert die Pakete und verteilt diese. Zwei weitere Clients – zwei Warenhäuser – haben jeweils das rote bzw. grüne Topic abonniert. Also verteilt der Broker nur die jeweiligen Pakete an die Warenhäuser. Obwohl also beim Broker die Pakete bunt gemischt waren, kommen diese farbengetrennt bei den Clients an. Das Paket steht dabei für eine Nachricht. Der Paketinhalt steht für das sogenannte Payload, also die zu übermittelnden Nutzdaten.

Relevante Begriffe einfach erklärt

In MQTT werden verschiedene Begrifflichkeiten verwendet. In der folgenden Liste haben wir die wichtigsten erklärt:

Wildcard

Wildcards sind spezielle Zeichen, die verwendet werden, um mehrere Topics zu abonnieren oder zu filtern. Es gibt zwei Arten von Wildcards in MQTT:

Quality of Service (QoS): Gewährleistung der Nachrichtenqualität und Zuverlässigkeit

QoS ist eine Vereinbarung zwischen dem Sender und Empfänger einer Nachricht in Bezug auf das Garantieren der Nachrichtenübermittlung. Es existieren drei verschiedene Level in MQTT:

Beide Kommunikationsarten (Publish/Subscribe) zum und vom Broker müssen berücksichtigt und getrennt voneinander betrachtet werden. Das QoS-Level, welches ein Client beim Publishen einer Nachricht verwendet, wird vom jeweiligen Client gesetzt. Wenn der Broker nun die Nachricht an einen Client weiterleitet, der entsprechend das Topic abonniert hat, wird das QoS-Level vom Subscriber verwendet, welches beim Herstellen des Abonnement angegeben wurde. Dies bedeutet, dass ein QoS-Level, welches vom Publisher vielleicht mit 2 angegeben wurde, vom Subscriber mit 0 „überschrieben“ werden kann.

Entscheidungshilfe: QoS-Stufen

Sicherheit in MQTT: Schutz und Absicherung der Datenübertragung

Im Protokoll können verschiedene Sicherheitsmechanismen implementiert werden. Je nach Implementierung ist der Umfang der Sicherheitseinstellungen eingeschränkt oder vollständig implementiert. Die verschiedenen Möglichkeiten können auf die Protokollteilnehmer (Broker, Client sowie Netzwerk) verteilt werden.

Sicherheitsmöglichkeiten auf Client-Ebene

Sicherheitsmöglichkeiten auf Broker-Ebene

Auf Netzwerkebene kann der Zugriff auf MQTT-Broker auf autorisierte Clients beschränkt werden, indem Netzwerksegmente und Firewalls entsprechend konfiguriert werden.

Hinweis: Die Sicherheitsmöglichkeiten und Bedrohungen ändern sich mit der Zeit. Eine periodische Überprüfung der verwendeten Protokolle bietet sich an.

Vor- und Nachteile des Protokolls

Folgende Argumente sprechen für die Verwendung des Protokolls

Es gibt jedoch auch Nachteile, die mit diesem Protokoll verbunden sind:

MQTT to X – Schnittstelle zu Datenbanken und weiteren Anwendungen

Python Skript

Um Daten von einem MQTT-Broker zu abonnieren, existieren diverse Python-Skripte. Das folgende Skript verbindet sich mit einem Broker und gibt die Daten auf der Kommandozeile aus. Dazu verbindet sich das Skript mit einem definierten Broker auf Port 1883. Dort abonniert das Skript das Topic „sensoren/temperatur“ und gibt diese bei Nachrichtenempfang aus. Als Beispiel Bibliothek findet die MQTT Bibliothek von Paho Anwendung.

import paho.mqtt.client as mqtt
# Callback-Funktion, die aufgerufen wird, wenn eine Nachricht empfangen wird
def on_message(client, userdata, message):
    print(f"Empfangene Nachricht: {message.payload.decode()}")
# MQTT-Client erstellen
client = mqtt.Client()
# Callback-Funktion für Nachrichtenregistrierung festlegen
client.on_message = on_message
# Verbindung zum Broker herstellen (Broker-IP-Adresse oder Hostname angeben)
broker_address = "broker.example.com"
client.connect(broker_address, port=1883)
# Thema, das abonniert werden soll
topic = "sensoren/temperatur"
# Thema abonnieren
client.subscribe(topic)
# Auf eingehende Nachrichten warten
client.loop_forever()

MQTT mit DatenBerg smartPLAZA

Das DatenBerg Gateway hat MQTT-Funktionalitäten standardmäßig integriert. Zur Weiterverarbeitung kann direkt ein Python-Skript eingebunden werden. So kann die z.B. die Umrechnung von Rohsignalen vom Binär- ins Dezimalsystem direkt auf dem Gateway stattfinden. Das Gateway sendet die Daten dann verschlüsselt an die smartPLAZA. Falls keine Verbindung zum Server möglich ist, speichert das Gateway die Daten lokal ab und puffert diese. Somit ist ein Sicherheitspuffer vorhanden. In der smartPLAZA werden die Daten dann in einer Datenbank gespeichert und können visualisiert, auf Grenzwerte überwacht oder für weitere Berechnungen verwendet werden.

Integration von MQTT und IO-Link

IO-Link als standardisiertes Kommunikationsprotokoll setzt sich in der Industrie immer mehr durch. Damit können Sensoren und Aktoren nach dem Plug & Play-Prinzip an eine Steuerung, den sogenannten IO-Link-Master, angeschlossen werden. Die Konfigurationsdateien der einzelnen Geräte stehen als sogenannte IODD-Dateien online zur Verfügung. Hersteller wie IFM mit der DataLine oder Pepperl & Fuchs mit den IEC-Geräten bieten auf ihren IO-Link-Mastern direkt die Funktionalität zur MQTT-Kommunikation an. Damit kann der Master bidirektional Daten an einen Broker senden und von diesem empfangen. Durch den modularen IO-Link Ansatz entsteht auf einfache Weise ein kabelbasiertes Netzwerk. Die Kommunikation vom Sensor zum Master erfolgt über das IO-Link-Protokoll und die Kommunikation der Sensordaten findet über MQTT statt. Dies kann ohne Programmierung, sondern nur mit Webapplikationen erfolgen.

Verbindung zwischen MQTT und SPS

Neben der dezentralen Sensorik können auch Steuerungen von MQTT profitieren. Für folgende Hersteller haben wir die MQTT-Funktionalitäten exemplarisch recherchiert:

Bei Siemens gibt es den Funktionsbaustein „LMQTT“. Dieser ist für die Steuerungen S7-1500 und S7-1200 konzipiert und im TIA-Portal verfügbar. Sowohl Veröffentlichungs- als auch Abonnierfunktionien sind umgesetzt. Als Sicherheitsfeature wird TLS-Verschlüsselung angeboten. Mehr dazu hier in der offiziellen Siemensanleitung. In der Beckhoff-Welt gibt es auch einen vordefinierten Funktionsbaustein namens „FB_IotMqttClient“ für die MQTT-Kommunikation. Der Baustein ist in der Bibliothek „Tc3_IotBase“ enthalten. Außerdem gibt es ein Modul für den „Last Will“ des Clients und ein weiteres Modul für die TLS-Konfiguration. Hier gibt es eine Anleitung von Beckhoff zur Konfiguration. Auch von Bachmann Electronic gibt es eine vorgefertigte Software für die MQTT-Kommunikation in der M1-Steuerungswelt. Die Einbindung erfolgt hier über die SPS-Bausteinbibliothek oder als C/C++ Headerdatei. Für IEC 61331-3 API mit Headerdatei für C/C++. Weitere Informationen finden Sie hier.

Case Study: Automatisierte Überwachung von Motoren in einem Logistikzentrum mittels MQTT-Technologie

Problem: Manuelle Überwachung und fehlende Datenerfassung von dezentralen Motoren

In einem großen Logistikzentrum, das eine große Anzahl dezentraler Motoren für verschiedene Betriebsaufgaben betreibt, stand das Problem der manuellen Überwachung im Vordergrund. Die vorhandene Steuerungstechnik ermöglichte keine Überwachung der Vibrationen und Laufzeiten der Motoren, was zu ineffizienten Wartungsprozessen, unerwarteten Ausfällen und hohen Wartungskosten führte. Die fehlende Möglichkeit, den Zustand der Motoren frühzeitig zu erkennen, beeinträchtigte die Betriebskontinuität und erhöhte die Ausfallzeiten.

Lösung: Implementierung von kabellosen Sensor Gateways mit MQTT-Integration

Um dieses Problem zu lösen, entschied sich das Logistikzentrum für eine innovative Lösung: die Implementierung von drahtlosen Sensor Gateways mit integrierten Vibrationssensoren. Diese Sensoren sind an den Motoren angebracht und sammeln kontinuierlich Daten über die Vibrationen an den Motoren. Die gesammelten Daten werden über ein WLAN-Netzwerk an einen zentralen MQTT-Broker übertragen. Die MQTT-Technologie ermöglichte eine effiziente, zuverlässige und echtzeitfähige Kommunikation zwischen den Sensoren und dem Broker.

Die erfassten Daten sind mit Hilfe einer optimierten Topic-Struktur intelligent kategorisiert und organisiert. Diese Topic-Struktur ermöglichte es, die Sensorsignale den entsprechenden Motoren zuzuordnen und einen klaren Überblick über den Zustand jedes Motors zu erhalten. Das Logistikzentrum nutzte MQTT, um die Daten an die DatenBerg smartPLAZA zu senden, die als zentrale Plattform für die Verwaltung und Analyse von IoT-Daten dient. Hier findet die automatisierte Analyse der Sensordaten statt.

Outcome: Effiziente Automatisierung, Vorhersage und optimierte Instandhaltung

Durch die erfolgreiche Implementierung dieser Lösung konnte das Logistikzentrum mehrere positive Ergebnisse erzielen:

Die erfolgreiche Implementierung von MQTT zur Überwachung und Analyse von Motoren führte zu einer deutlichen Verbesserung der Betriebseffizienz, der Wartung und der Betriebskontinuität im Logistikzentrum. Durch die intelligente Kombination von drahtlosen Sensor-Gateways, MQTT-Kommunikation und prädiktiver Analyse konnte das Logistikzentrum Ausfälle minimieren, Ressourcen optimieren und letztendlich die Gesamtbetriebskosten senken.

Häufig gestellte Fragen

Für was ist MQTT die Abkürzung?

MQTT steht für Message Queuing Telemetry Transport und ist ein Protokoll zu Datenübertragung.

Welche MQTT-Broker gibt es?

Es existieren verschiedene MQTT-Broker, die sich hinsichtlich Stabilität, Skalierbarkeit und Funktionsumfang unterscheiden. Mosquitto ist eine verbreitete Open-Source Implementation. Weitere Broker sind unter anderem: Hive MQ, Eclipse Mosquitto, VerneMQ, ActiveMQ oder EMQ X.

Was ist die maximale Nachrichtengröße bei MQTT?

Maximal 64kB können mit einer Nachricht übertragen werden.

Wer hat MQTT erfunden?

MQTT wurde erstmals in den späten 1990er Jahren von Andy Stanford Clark und Arlen Nipper entwickelt.  2010 wurde der Standard von IBM als Open-Source-Projekt veröffentlicht und der Quellcode der Eclipse Foundation übergeben. Die aktuelle Version MQTT 5.0 wurde 2019 veröffentlicht.

Für was steht QoS bei MQTT?

QoS steht für Quality of Service. Die QoS-Stufen (0, 1, 2) beeinflussen die Nachrichtenübermittlung und -bestätigung. Höhere QoS-Stufen bieten mehr Sicherheit in Bezug auf die Nachrichtenzustellung, erfordern jedoch auch mehr Overhead.

Modbus: Aufbau, Funktion und Beispiel

Was ist das Modbus Protokoll?

Modbus ist ein weit verbreitetes Kommunikationsprotokoll in der Industrieautomatisierung und Prozesssteuerung. Es ermöglicht den Austausch von Daten zwischen elektronischen Geräten und Systemen, die in industriellen Umgebungen im Einsatz sind.

Das Modbus-Protokoll wurde in den späten 1970er Jahren von Modicon (gehört heute zu Schneider Electric) entwickelt und besteht aus mehreren Varianten, darunter die Varianten RTU (Remote Terminal Unit) und TCP/IP (Transmission Control Protocol/Internet Protocol). Es ist ein offenes Protokoll und daher sehr flexibel und einfach in der Implementierung.

Bei der Kommunikation werden die Kommunikationspartner in "Client" und "Server" oder alternativ "Slave" und "Master" unterschieden. Der Client führt auf dem Master einen bestimmten Befehl aus. Ist dieser korrekt, verarbeitet der Master die Anfrage und gibt eine Antwort (z.B. einen Prozesswert) zurück. Für die Konfiguration einer Kommunikation stellt der Maschinenhersteller eine Tabelle bereit, die beschreibt an welcher Stelle, welche Information vorliegt. Der Client-Programmierer frägt dann mit der Software gezielt die gewünschten Informationen ab. Dieser robuste und einfache Aufbau, macht den Modbus beliebt.

Aufbau des Modbus Protokolls. Ein Client (z.B. Software) sendet eine Anfrage an den Master. Dieser prüft die Anfrage und gibt ein Ergebnis zurück.

Unterschied Modbus RTU und TCP/IP

RTU ist eine serielle Kommunikationsvariante, die üblicherweise über RS-485- oder RS-232-Schnittstellen läuft. Es verwendet eine binäre Datenrepräsentation, um Informationen zwischen Geräten zu übertragen.

TCP/IP hingegen ist eine Variante, die über Ethernet-Netzwerke läuft und auf dem Internet Protocol (IP) basiert. Diese Version erlaubt die Kommunikation über IP-Netzwerke, was sie in modernen industriellen Umgebungen sehr beliebt macht.

Anwendungsfälle von Modbus

Modbus wird häufig in verschiedenen industriellen Anwendungen eingesetzt, um Daten von Sensoren, Steuerungen und anderen Geräten zu sammeln und an eine zentrale Steuerungseinheit oder ein Überwachungssystem, wie die DatenBerg smartPLAZA, zu übertragen. Es ist weit verbreitet und wird von vielen Herstellern unterstützt.

Beispiele für Anwendungen:

Vor- und Nachteile von Modbus

In der industriellen Automatisierung und Prozesssteuerung ist Modbus ein weit verbreitetes Protokoll. Es bietet verschiedene Vor- und Nachteile, die berücksichtigt werden müssen, um zu entscheiden, welches Protokoll zum Einsatz kommt:

Vorteile:

Nachteile:

Datenmodell

In der Modbus-Spezifikation sind vier verschiedene Tabellentypen definiert. Diese werden in der folgenden Tabelle beschrieben. Jeder Anwender des Protokolls (z.B. Gerätehersteller) definiert auf Basis dieses Basisdatenmodells eigene Tabellen. Diese werden dann dem Endanwender in einem Handbuch zur Verfügung gestellt.

Primäre TabellenObjekttypZugriffstyp
Discrete Inputs (Einzelner Eingang)Single bitLesezugriff
Coils (Einzelner Ein-/Ausgang)Single bitLese-/Schreibzugriff
Input Registers (Eingänge)16-bit wordLesezugriff
Holding Registers (Ein-/Ausgänge)16-bit wordLese-/Schreibzugriff

Funktionsbausteine

Zur Erfüllung definierter Aufgaben existieren im Protokoll verschiedene Funktionen bzw. Funktionsbausteine. Die Funktionsbausteine haben eine numerische Kodierung und werden als Modbus Funktionen bezeichnet. Die gebräuchlichsten Funktionsbausteine im Protokoll sind:

  1. Funktion 01 (0x01) - Read Coils: Diese Funktion wird verwendet, um Ausgangszustände (Coils) von einem Server zu einem Client zu lesen. Der Client kann den Zustand von mehreren Ausgängen gleichzeitig anfordern.
  2. Funktion 02 (0x02) - Read Discrete Inputs: Diese Funktion ermöglicht es dem Client, den Zustand von digitalen Eingängen (discrete inputs) von einem Server zu lesen.
  3. Funktion 03 (0x03) - Read Holding Registers: Mit dieser Funktion kann der Client Holding-Register von einem Server lesen.
  4. Funktion 04 (0x04) - Read Input Registers: Diese Funktion erlaubt es dem Client, Input-Register von einem Server zu lesen.
  5. Funktion 05 (0x05) - Write Single Coil: Mit dieser Funktion kann der Client einen einzelnen digitalen Ausgangszustand (Coil) in einem Server setzen oder zurücksetzen.
  6. Funktion 06 (0x06) - Write Single Register: Diese Funktion ermöglicht es dem Client, einen einzelnen Wert in ein Holding-Register auf einem Server zu schreiben.
  7. Funktion 15 (0x0F) - Write Multiple Coils: Mit dieser Funktion kann der Client mehrere digitale Ausgangszustände (Coils) in einem Server gleichzeitig setzen oder zurücksetzen.
  8. Funktion 16 (0x10) - Write Multiple Registers: Diese Funktion erlaubt es dem Client, mehrere Werte in aufeinanderfolgende Holding-Register auf einem Server zu schreiben.

Die Verfügbarkeit und Unterstützung bestimmter Funktionen kann von der Protokoll-Variante (RTU oder TCP/IP) und den verwendeten Geräten abhängen. Jede Funktion hat eine spezifische Datenstruktur und verwendet spezifische Modbus-Registeradressen, um zu kommunizieren.

Praxisbeispiel: Modbus TCP auslesen

In einer Lebensmittelproduktion soll der Druckluftkompressor überwacht werden. Der Hersteller bietet hierfür das Modbus-Protokoll an. Zunächst wird der Kompressor über ein Ethernetkabel in das Maschinennetz eingebunden. In der Steuerung wird die IP-Adresse eingestellt, die für Zugriff relevant ist.

In der Anleitung des Herstellers finden sich folgende Hinweise:

Damit ist klar, mit welcher Funktion auf die Daten zugegriffen werden kann. Der Anwender möchte nur Daten lesen, daher wird nur die Funktion 03 weiter betrachtet. Der aktuelle Netzdruck und der Energiezähler sollen überwacht werden. Dazu stehen folgende Angaben zur Verfügung:

Mit diesen Informationen kann das DatenBerg Gateway konfiguriert werden. Zusätzlich wird das Abfrageintervall (in Sekunden) definiert. Das Gateway fragt dann z.B. alle 60 Sekunden die Daten ab und liest die Holding Register aus. Der Wert wird dann direkt an das Data Warehouse der smartPLAZA gesendet und kann dort auf Dashboards visualisiert oder mit Hilfe des Monitorings überwacht werden.

Q&A Modbus

Was ist das Modbus Protokoll?

Modbus ist ein industrielles Kommunikationsprotokoll, das die Kommunikation zwischen einem "Master" und einem "Client" ermöglicht. Der Client sendet eine Anfrage an den Master, der bei korrekter Formulierung der Anfrage z.B. einen Prozesswert zurücksendet. Die möglichen Anfragen werden vom Anlagenhersteller festgelegt und sind in der Regel in einer Tabelle hinterlegt.

Was ist Modbus RTU?

Modbus RTU ist eine Variante des Modbus-Protokolls. RTU steht für Remote Terminal Unit. Die Kommunikation erfolgt über ein mehradriges Kabel im Binärformat. RTU bietet sich z.B. bei der Verbindung zwischen einer SPS und einer dezentralen Anlage an.

Was ist Modbus TCP?

Modbus TCP ist eine Variante des Modbus-Protokolls. TCP ist die Abkürzung für Transmission Control Protocol. Die Kommunikation erfolgt über ein Ethernetkabel (RJ45). Ein Anwendungsfall für Modbus TCP bist der Anschluss eines Gerätes (z.B. Kompressoranlage) direkt an ein Ethernet-basiertes Maschinennetzwerk.

Welche Software eignet sich für das Auslesen von Modbus TCP?

Für Prototypenanwendungen kann das Signal über ein Python-Skript oder eine Node-Red-Anwendung ausgelesen werden. Für den produktiven Einsatz mit direkter Datenspeicherung und -auswertung empfehlen wir die DatenBerg smartPLAZA.

Gibt es eine Modbus Spezifikation?

Es gibt eine offizielle Dokumentation der Modbus-Organisation, das "MODBUS APPLICATION PROTOCOL". Jeder Hersteller von Geräten, die Modbus implementieren, kann diese jedoch mehr oder weniger implementieren. Bei der Implementierung ist daher die implementierte Modbus-Spezifikation beim Gerätehersteller zu erfragen.

Was ist der Unterschied zwischen Modbus RTU und TCP?

Bei Modbus RTU wird ein mehradriges Kabel verwendet, bei Modbus TCP ein Ethernet-Kabel. Die Signalübertragung erfolgt bei RTU über eine binäre Schnittstelle, bei TCP über ein Ethernet-basiertes System.

Weitere Quellen

Ishikiwa-Diagramm

Was ist ein Ishikawa-Diagramm?

Tritt ein Qualitätsproblem auf, stellt sich nach den ersten Maßnahmen zur Fehlerbehebung die Frage nach der Ursache. Im Rahmen der Analyse der Einflussfaktoren auf ein Qualitätsproblem kommen oft eine Vielzahl von Variablen als Ursachen in Betracht. Um Struktur in die Analyse zu bringen, müssen die einzelnen Ideen systematisch erfasst und für alle Beteiligten transparent dargestellt werden. Dazu wird das Ishikawa-Diagramm - auch Fischgrätendiagramm genannt - verwendet. Hierbei werden mögliche Einflussfaktoren auf eine Abweichung in logischen Gruppen zusammengefasst dargestellt. Die einzelnen möglichen Einflüsse werden den Gruppen zugeordnet und können dann auf ihren tatsächlichen Einfluss überprüft werden. Die Inhalte basieren zu Beginn noch stark auf Erfahrungen und Meinungen und werden nach und nach durch nachgewiesene Zusammenhänge ersetzt. Oft wird eine mögliche Ursache im Laufe der Zeit dann weiter präzisiert beziehungsweise ausgeschlossen.

Ishikawa-Diagramm Vorlage

5M,7M – Wie viele Kategorien im Ishikawa-Diagramm?

In Lehrbüchern wird das Ishikawa-Diagramm oft mit fünf Kategorien - den sogenannten 5Ms - dargestellt. Diese stehen für Mensch, Maschine, Material, Methode und Umwelt. Eine weitere Ausprägung ist die 7M-Kategorie - hier werden die Kategorien um Management und Messbarkeit erweitert. 

Die Kategorien sind als Orientierung zu verstehen. Je nach Analysefall bieten sich andere Gruppen an bzw. sind nicht alle Kategorien relevant.

Ishikawa anwenden im Workshop: Tipps & Tricks

Für das Ausfüllen eines Ishikawa-Diagramms bietet sich ein Workshop-Format an. Um möglichst ergebnisoffen zu arbeiten, sollten Kollegen aus verschiedenen Fachbereichen einbezogen werden. In cross-funktionalen Teams ist es wichtig, das Problem aus verschiedenen Blickwinkeln zu betrachten. Neben den Teilnehmern sollte ein Moderator ohne direkten Bezug zum Kernproblem eingebunden werden. Dieser „neutrale“ Moderator hat die Aufgabe, durch gezielte Fragen die möglichen Fehlerursachen zu präzisieren.

Zu Beginn wird das Problem möglichst klar definiert und die Auswirkung auf das Unternehmen (z.B. monetär, kapazitiv, Geschwindigkeit) beschrieben. Nachdem alle Teilnehmer mit der Problemstellung einverstanden sind, bietet sich eine stille Ideensammlung an. Anschließend ordnet der Moderator die Ideen der Teilnehmer den einzelnen Fischgräten (Kategorien) zu. Für einen schnellen Einstieg bietet sich die 5M-Einteilung (Mensch, Maschine, Material, Methode und Mitwelt) der Kategorien an. Diese kann im Verlauf des Workshops variiert werden.

Folgende Materialien können für den Workshop verwendet werden:

5-Why und Ishikwa-Diagramm

Ursache-Wirkungs-Zusammenhänge werden auch mit der 5-Why-Methode analysiert. Dabei wird eine Antwort immer wieder mit der Frage nach dem „Warum?“ neu hinterfragt. Ziel ist es, von der Symptomebene auf die Ursachenebene (engl. root causes) zu schließen. Die Zahl fünf ist dabei symbolisch zu verstehen, es können mehr oder weniger Fragen notwendig sein, um auf die eigentlichen Ursachen zu schließen.

Die Vorgehensweise mit 5-Why ist eher auf eine Ursache-Wirkungskette ausgerichtet. Beim Ishikawa-Diagramm besteht der Ansatz darin, zunächst Transparenz über mögliche Ursachen zu schaffen und diese systematisch zu untersuchen. Um jedoch einzelne mögliche Ursachen zu hinterfragen, bietet sich das 5-Why als Werkzeug an. Wie so oft im Leben - die Mischung macht’s.

Ishikawa Diagramm softwaregestützt ausfüllen

Im Rahmen eines Ishikawa-Workshops werden die ersten möglichen Ursachen oft durch Erfahrung ermittelt. Bei immer komplexeren Prozessen und immer mehr verfügbaren Daten in der Produktion kann Software unterstützen. Neuere Anlagen bieten Schnittstellen, um Daten abzugreifen und diese zentral abzuspeichern. Im Falle einer Reklamation oder eines Fehlerfalles, kann die Historie zur Analyse herangezogen werden. Hypothesen können so schnell validiert und mit Zahlen, Daten, Fakten untermauert werden.

Beispiel Schokoladenproduktion

Die Produktion hat relevante Anlagen wie Temperaturüberwachung, Klimaanlagen, Gebäudeautomation und Gießmaschinen an die Software DatenBerg smartPLAZA angeschlossen. Dort werden die Daten gespeichert, um die Einhaltung der Prozesse sicherzustellen und bei Abweichungen direkt gewarnt zu werden.

Am 22.07. sendet die Temperaturüberwachung der Lagerhalle eine E-Mail mit der Information „Temperatur zu heiß“.  Der Qualitätsbeauftragte kann den Verlauf sofort im System nachvollziehen. Wie aus dem Diagramm ersichtlich ist, liegt die Hallentemperatur seit 15 Minuten 2°C über dem definierten Grenzwert. Damit ist die Problembeschreibung für das Ishikawa-Diagramm eindeutig.

Jetzt ist Eile geboten, damit die Schokolade nicht schmilzt. Nun beginnt die Ursachenanalyse. Zuerst die Kategorie „Messgenauigkeit“: Sie überprüft die Kalibrierung der Sensoren - aber das System zeigt ein Kalibrierdatum von vor zwei Wochen an. Auch die Außentemperatur zeigt einen Verlauf von über 32°C an. So warm war es dieses Jahr noch nicht. Weiter geht es mit der Kategorie „Mensch“: Über die Daten der Gebäudeautomation findet sie heraus, dass das große Verladetor geschlossen ist. Auch hier kann keine warme Luft eindringen. Also überprüft sie die „Maschinen“: Hier wird schnell klar, dass eine Klimaanlage einen Fehler ausgibt - 0% Leistung. Über die Diagnosedaten findet sie heraus, dass die Anlage vor einem Tag eine Notabschaltung hatte. Das Wartungsintervall ist seit vier Monaten abgelaufen.

Um andere Ursachen auszuschließen, nutzt sie die automatische Ursachenanalyse der smartPLAZA. Dazu wählt sie den Zeit Bereich mit dem Fehlerbild aus und fragt die Software „Was war anders?“. Als Rückmeldung erhält sie die übereinstimmenden Informationen: Es ist wärmer als sonst, die Außentemperatur ist höher als erwartet und der Energieverbrauch der Klimaanlage in Halle 2 ist niedriger als erwartet. Weitere signifikante Einflussgrößen wurden nicht identifiziert. Mit Hilfe der Daten im System konnten die einzelnen Einflussgrößen schnell abgearbeitet und die Ursache zielgerichtet erarbeitet werden.

Fazit

Ein Ishikawa-Digramm unterstützt in der Fehlerursachenfindung. Mit Hilfe von vorgefertigten Kategorien, kann Struktur in die Ursachenfindung gebracht und gezielt Hypothesen validiert werden. Die vorgefertigten Kategorien sind dabei als flexibel zu betrachten.

Software kann Schnelligkeit in die Ursachenfindung bringen. Mit der DatenBerg smartPLAZA werden automatisiert alle vorhandenen Variablen hinsichtlich eines Fehlerbildes analysiert und mögliche Ursachen aufgelistet. Ebenfalls können manuell Hypothesen validiert und Zahlen, Daten, Fakten gesammelt werden.

Werkerassistenzsystem

Was ist ein Werkerassistenzsystem? Definition

Systeme zur Unterstützung von Arbeitern sind technologische Systeme, die entwickelt wurden, um menschliche Arbeiter in verschiedenen industriellen oder Produktionsumgebungen zu unterstützen. Diese Systeme sollen die Effizienz, Produktivität und Sicherheit von Arbeitern verbessern, indem sie relevante Informationen bereitstellen, bei der Ausführung von Aufgaben helfen oder sich wiederholende und ermüdende Tätigkeiten automatisieren.

Typen von Assistenzsystemen

Werkerassistenzsysteme können verschiedene Formen annehmen, je nach Anwendungsbereich und Aufgabenstellung. Hier sind einige Beispiele für solche Systeme:

Einstufung von Werkerassistenzsystemen

Assistenzsysteme unterstützen den Menschen bei der Ausführung einer Arbeit. Dabei kann die Arbeit in verschiedene Klassen eingeteilt werden. In der folgenden Abbildung werden Arbeitstypen nach der Art der Beanspruchung klassifiziert und die einzelnen Aufgabenkomplexitäten zugeordnet. Mit einer solchen Klassifizierung ist der erste Schritt in Richtung Assistenzsystem getan.

Ausgehend von der Klassifizierung der Arbeit kann dann die geeignete Art des Assistenzsystems ausgewählt werden. Für mechanische oder motorische Arbeiten, bei denen die körperliche Arbeit und Bewegung im Vordergrund steht, bietet sich die Unterstützung durch Hardware an. Exoskelette oder Tragehilfen entlasten den Menschen bei der Ausführung. Ein Beispiel: Der Werkzeughersteller HILTI bietet ein Exoskelett für Überkopfarbeiten auf der Baustelle an.

Bei reaktiven Aufgaben müssen Informationen aufgenommen und verarbeitet werden. Durch Augmented-Reality-Brillen oder visuelle Führung des Mitarbeiters wird dieser sowohl bei der Aufnahme als auch bei der Verarbeitung unterstützt. Ein Beispiel sind Montageplätze, die den Mitarbeiter in der Arbeitsdurchführung mit Displays oder anderen visuellen Anzeigen unterstützen. Hier findet sich ein Beispiel für einen solchen Montageplatz.

Bei kombinatorischen Aufgaben müssen Informationen ganzheitlich betrachtet werden, um richtige Entscheidungen treffen zu können. Hier kann ein softwarebasiertes System die Daten analysieren und mit passenden Empfehlungen unterstützen.

Bei kreativen Aufgaben muss aus einer vorhandenen Information eine neue Information erzeugt werden. Diese Art von Arbeit findet beispielsweise in der Rezepturentwicklung in der Lebensmittel-, Chemie- oder Pharmaindustrie statt. Hier werden neue Rezepturen entwickelt, um eine Kundenanforderung zu erfüllen. Andere Anwendungen finden sich in der Produktionsfeinplanung oder Logistikabwicklung.

Digitale Assistenz versus Vollautomatisierung

Automatisierung in der Produktion bezieht sich auf den Einsatz von Maschinen, computergesteuerten Systemen und Technologien, um Produktionsprozesse weitgehend oder vollständig zu automatisieren. Dabei werden menschliche Arbeitskräfte durch automatisierte Systeme ersetzt oder unterstützt, um die Effizienz, Qualität und Produktivität der Produktion zu verbessern.

Die Automatisierung kann verschiedene Formen annehmen, von einfachen mechanischen Vorrichtungen bis hin zu hochentwickelten robotergesteuerten Systemen. Sie umfasst die Automatisierung von Arbeitsabläufen, Aufgaben und Prozessen in der Produktion, z. B. die Automatisierung von Maschinen, die Integration einzelner Prozessschritte oder die Vernetzung.

Der Mensch als Teil des Produktionssystems bietet jedoch den Vorteil der Flexibilität. Bei variantenreicher Produktion mit kleinen Losgrößen, komplexen Wirkzusammenhängen (wie in der Chargenfertigung) oder schwer automatisierbaren Fällen ist eine Vollautomatisierung oft nicht möglich, nicht wünschenswert oder aus betriebswirtschaftlicher Sicht einfach nicht rentabel.

In diesen Fällen können Werkerassistenzsysteme den Menschen unterstützen. Dabei kann der Mensch sowohl physisch (z. B. Exoskelette), visuell (z. B. durch Lichtführung in der Montage) oder mit Hilfe von Informationen (z. B. Hinweise zur Prozessführung) unterstützt werden.

Als Beispiel nehmen wir wieder den Werkzeughersteller HILTI. Neben dem oben erwähnten Überkopf-Exoskelett für motorische Tätigkeiten, wird auch ein ein Robotor für Überkopfarbeiten angeboten. Beide Produktionssysteme erfüllen die gleiche Aufgabe. Eine Differenz gibt es bei der Flexibilität. Der Mensch ist dynamisch einsetzbar. Um den Roboter einzusetzen, muss ein digitales Abbild der Baustelle vorliegen, welches genau geplant werden muss.

Batch-Produktion: Assistent für die Prozessführung

Die Batch-Produktion ist eine Produktionsmethode, bei der Produkte in bestimmten Chargen oder Losen hergestellt werden. Im Gegensatz zur kontinuierlichen Produktion, bei der ein kontinuierlicher Produktstrom hergestellt wird, werden bei der Batch-Produktion einzelne Produktchargen nacheinander hergestellt.

Bei der Batch-Produktion durchläuft jede Batch den gesamten Produktionsprozess, bevor mit der nächsten Batch-Produktion begonnen wird. Dadurch kann jede Charge individuell eingestellt werden. Häufig werden Rohstoffe verarbeitet, die sehr empfindlich auf Umwelteinflüsse (z.B. Hallentemperaturen) reagieren oder deren Verarbeitbarkeit von Charge zu Charge variieren kann.

Ein typisches Beispiel für die Chargenproduktion findet sich in der Lebensmittelindustrie, insbesondere bei der Herstellung von Backwaren. Hier werden für jede Charge bestimmte Mengen an Zutaten abgemessen und verarbeitet.

Abhängig von der Außentemperatur müssen die Kombinationen der Zutaten aufeinander abgestimmt werden. Dies ist eine kombinatorische Aufgabe: Die aktuelle Zutatenliste muss mit der Information über die Außentemperaturen kombiniert werden. Ein Assistenzsystem kann hier unterstützen. Die Empfehlung zur Temperaturanpassung wird dann direkt an den Mitarbeiter weitergegeben.

Software für ein Assistenzsystem

Bei der Auswahl eines Assistenzsystems gibt es verschiedene Anforderungen, die berücksichtigt werden müssen, um sicherzustellen, dass das System effektiv und benutzerfreundlich ist.

Die erste Auswahl ergibt sich aus der Klassifizierung des Assistenzsystems als mechanisch/motorisch, reaktiv, kombiniert oder kreativ. Je nach Typ muss Hardware, Hardware und Software oder nur Software beschafft werden. Im Folgenden konzentrieren wir uns auf Software für kombinative und kreative Anwendungen.

Vorhandenes Expertenwissen sollte möglichst einfach und anpassbar digital abgebildet werden können, um das Assistenzsystem richtig aufzusetzen. Neben einfachen Wenn-Dann-Regeln ist es auch sinnvoll, komplexere Kombinationen über eine Skriptsprache wie Java eingeben zu können.

Das System sollte skalierbar und einfach um neue Anlagen erweiterbar sein. Dies kommt dann zum Tragen, wenn das System von einer Linie auf eine andere übertragen werden soll. Wie bei jeder Software spielen auch die Themen Sicherheit und Datenschutz eine Rolle.

Wir bieten mit smartPLAZA eine Software an, mit der ein Assistenzsystem modular aufgebaut werden kann. Hier können Prozessparameter in Echtzeit abgerufen und überwacht werden. Im Monitoring Modul können Domänenexperten können für bestimmte Szenarien direkt Handlungsempfehlungen hinterlegen, welche dem Mitarbeiter an der Linie zur Verfügung gestellt werden. Ebenfalls können in der Software KI-Modelle angelegt werden, um Empfehlungen für Maschineneinstellungen zu generieren. Gerne evaluieren wir gemeinsam mit Ihnen die Anwendungsfälle, wie die Software in Ihrer Produktion unterstützen kann.

Zugriff via REST-API

Die REST-API Schnittstelle bietet die Möglichkeiten Daten direkt zu exportieren und anderen Programmen weiterzuverarbeiten. Anwendungsfälle hierfür sind die Weiterverarbeitung in einer Simulationsumgebung oder das Austauschen von Informationen in vor- oder nachgelagerte Systeme wie ein ERP. In diesem Beispiel zeigen wir, wie die einzelnen Informationen in Python abgerufen werden können.

Übersicht API Funktionen

Funktion /tables-get

Die Anfrage gibt ein Array mit allem dem Schlüssel zugeordneten Tabellen zurück. Mit der Abfrage /tables-get werden die vorhandenen Messwertspalten und Meta-Daten Spalten pro Tabelle abgerufen. Dabei wird ein JSON-Dokument mit folgendem Aufbau zurückgegeben:

r = get("http://localhost/tables-get?_key=1c719300634174af")

Antwort der Anfrage:

{'success': True, 
'tables': 
   [
      {'name': 'Tabelle_Daten', 
       'metadata': [{'id': 'mdedefaf4c5', 'name': '__IMPORT_ID', 'type': 'int'},…]
       'columns': [{'id': 'c74b45c94d1_1', 'name': 'Temp. 1 Mischk. [°C] (Integral)'},….]
}]

Wenn es mehr als eine Metadatenspalte und eine Messwertspalte gibt, existieren mehr Name-Wert-Paare. Jede Spalte gibt als Information eine ID, einen Namen und die Metadaten sowie das eingestellte Datenformat zurück. Wenn einem Schlüssel mehrere Tabellen zugeordnet sind, stehen die Tabellenstrukturen im JSON hintereinander.

Funktion /data-get

Messwerte können mit Hilfe eines POST-Statements abgerufen werden. Hierzu wird der Servername und ein Schlüssel benötigt.

r = post(
    "http://localhost/data-get?_key=1c719300634174af",
    dumps({
        "columns": [
        ...
        ],
        "metadata": [
            ...
        ],
        "filters": [
            {
                "id": ...,
                "values": ...
            }
        ],
        "limit": 5
    })
)

Typen von Filter:

Antwort der Abfrage:

{'success': True, 
'data': 
   [{'c247e1bb848_1': 3701.0},
   {'c247e1bb848_1': 3548.5}, 
   {'c247e1bb848_1': 3664.30}, 
   {'c247e1bb848_1': 3705.69}, 
   {'c247e1bb848_1': 3634.0}
]}

Beispiele für REST-API Abrufe

Schritt 01: Verwalten von Schlüsseln

Unter Einstellungen / Keys kann ein neuer Schlüssel für ein Tabellenobjekt erstellt werden. Der Schlüssel besteht aus 16 Zeichen. Hinweis: Dieser Schlüssel ist wie ein Passwort zu sehen, damit können die Informationen aus der Tabelle ausgelesen werden. Dieser kann jederzeit zurückgesetzt werden, sollte der Schlüssel eventuell kompromittiert sein.

Ein Schlüssel kann pro Tabelle angelegt werden oder mehrere Tabellen abdecken.

Schritt 02: Tabellenaufbau abfragen

Im Codebeispiel wird die Anzahl der Spalten pro Tabelle ausgegeben und die Spaltennamen mit den internen IDs zu einem Name-Wert JSON-Paar zusammengefasst. Dies vereinfacht die Weiterverarbeitung.

Hinweis: Je nach Bereitstellung der smartPLAZA wird http:// (ggf. bei lokalen Installationen) oder https:// verwendet.

from requests import get, post
from json import dumps

r = get("http://localhost/tables-get?_key=1c719300634174af")
reply = r.json()

print("Tabelle:", reply["tables"][0]["name"])
print("Metadaten:", len(reply["tables"][0]["metadata"]))
print("Spalten:", len(reply["tables"][0]["columns"]))

columns = dict(map(lambda col: (col["name"], col["id"]), reply["tables"][0]["columns"]))
metadata = dict(map(lambda col: (col["name"], col["id"]), reply["tables"][0]["metadata"]))

Schritt 03: Abfrage von Messwerten

Nachdem die Tabellen und Spalten bekannt sind, können Daten abgerufen werden. Dabei wird der Spaltennamen und ein Limit übergeben. Das Limit gibt an wie viele Werte abgefragt werden sollen.

r = post(
    "http://localhost/data-get?_key=1c719300634174af",
    dumps({
        "columns": [columns["Temperatur"]],
        "limit": 5
    })
)
reply = r.json()

print(dumps(reply, indent=2))

Schritt 04: Abfrage von Messwerten mit Filter und Meta-Attributen

Um neben den reinen Messwerten auch die zugehörigen Metadaten abfragen zu können, werden diese in die Abfrage integriert. Zusätzlich kann ein Filterkriterium angegeben werden, nach dem gefiltert werden soll, z.B. eine Auftragsnummer. Der Filter benötigt den Spaltennamen sowie die zu filternden Werte.

r = post(
    "http://localhost/data-get?_key=1c719300634174af",
    dumps({
        "columns": [
            columns["Temperatur 1"],
            columns["Temperatur 2"],
            columns["Temperatur 3"],
        ],
        "metadata": [
            metadata["Schicht"],
            metadata["Uhrzeit"]
        ],
        "filters": [
            {
                "id": metadata["Fertigungsauftrag"],
                "values": ["24451"]
            }
        ],
        "limit": 5
    })
)
reply = r.json()

print(dumps(reply, indent=2))

###Antwort
{'success': True, 
'data':
    [
      {'c247e1bb848_1': 3701.0}, 
      {'c247e1bb848_1': 3548.5}, 
      {'c247e1bb848_1': 3664.300048828125}, 
      {'c247e1bb848_1': 3705.699951171875}, 
      {'c247e1bb848_1': 3634.0}
   ]
}

Schritt 05: Daten in Pandas übernehmen

Neben dem Export im JSON-Format können die Daten auch direkt in Python, z.B. in Pandas, weiterverarbeitet werden. Dazu werden die bereits beschriebenen Abfragen durchgeführt und anschließend das JSON in ein Dataframe überführt.

import pandas as pd

df = pd.DataFrame.from_dict(reply["data"])

print(df)

ExtruAI

What are extrusion processes?

Extrusion processes are used in a variety of industries. Extruders are used to form plastic products, such as sealing systems for car bodies. In addition to molding, extruders are also used for chemical processing and modification of materials. The food industry uses this principle to produce artificial meat substitutes, for example. In the plastics industry, this principle is used to produce rubber compounds such as thermoplastic elastomers. In both industries, single or twin screws are often used to feed a material through different zones in the elongated extruder. In the feed section, the materials are heated, compressed, degassed or mixed with other materials.

Challenges in extrusion processes

Overcoming these challenges requires a combination of process optimization, advanced control systems, and continuous monitoring to ensure consistent and high-quality extruded products.

Our solution with ExtruAI 

With ExtruAI, we will resolve these challenges. With the help of a scalable assistant, we will give the employee on the extrusion line recommendations on how to readjust the process. This will support the employee's existing knowledge and minimise the number of necessary iterations. The plant operator benefits from less waste and increased machine capacity. Even less experienced employees can regulate the process independently with ExtruAI, which simplifies personnel allocation.
On a technical side, ExtruAI uses a prescriptive Artificial Intelligence, which consists of three components:

How ExtruAI works - self learning, detection of anomalies, notification and giving recommendations
How the ExtruAI component works

Access to extruder data

Extruders are controlled by PLCs. A PLC can provide data (e.g. sensors, setpoints) via the industry standard for machine communication, OPC UA. The OPC UA standard for data exchange is defined to better align communication between different vendors. EUROMAP standards are defined for extrusion applications. The extrusion standard EUROMAP 83 defines several standard parameters such as troughput, specific output, temperature in different zones, product speed and energy consumption. With the PLC as the OPC UA server and our ExtruAI component as the OPC UA client, the data can be easily collected and automatically analyzed.

The KITT4SME project has developed a managed platform for Kubernetes hosting. We can host our component within this platform.

Connection of extruder PLC and EUROMAP83 standard for extruder

KITT4SME Support

We want to say thank you to the whole KITT4SME team - here you find the official website.
Here you can find the KITT4SME platform for application hosting and managing.
This work was supported by the H 2020 project "Platform enable KITs of Artificial Intelligence for an Easy Uptake of SMEs (KITT 4 SME)" under GA 952119.
Furthermore, we want to thank HEXPOL Compounding AB for supporting us with data from their manufacturing processes during the project. 

Komponenten verknüpfen

Funktionsweise

Um Komponenten miteinander zu verknüpfen gibt es zwei Wegen:

  1. Filter dynamisch setzen: Mit einem Zeit-Filter oder einer Meta-Daten Komponente können dynamisch durch den Nutzer Filtereinstellungen gesetzt werden
  2. Messmerkmale dynamisch auswählen: Mit einer Messmerkmalsauswahlliste können einzelne Merkmale angewählt werden, welche an andere Komponenten weitergegeben wird.

Beide Komponenten können sich auch gegenseitig ergänzen.

Eine Anzeigekomponente (Liniendiagramm, Ampel, Statistiken) nutzt dabei die dynamische Komponente (Meta-Daten, Messmerkmale oder Zeitfilter) als Filter bzw. Inputgeber.

Anleitung Verknüpfen von Komponenten

Schritt 01: Dynamische Komponente erstellen

Schritt 02: Liniendiagramm verknüpfen

Dies kann beliebig für verschiedene Auswahllisten erweitert werden.

Messmittelanbindung

Was ist eine Messmittelanbindung?

Im Rahmen der Überwachung und Dokumentation von Produktionsprozessen müssen verschiedene Parameter mit Hilfe von Messmitteln gemessen und protokolliert werden. Die ISO9001 fordert, dass eine Organisation sicherstellt, dass das Personal, das die Messmittel bedient, über die notwendigen Kenntnisse und Fähigkeiten verfügt, um die Messungen korrekt durchzuführen und die Ergebnisse richtig zu interpretieren. Das Notieren der Messwerte von Hand auf Papier oder das Eingeben der Werte in einen Computer ist fehleranfällig. Außerdem ist es mit einem hohen Zeitaufwand verbunden. Mit Hilfe einer Messmittelanbindung werden die erfassten Messwerte direkt digital übertragen. Auf diese Weise wird das Fehlerpotential bei der Übertragung ausgeschlossen und die Messwerte können direkt einer automatisierten Überwachung und Auswertung übergeben werden.

Arten der Messmittelanbindung

Prüfplanbasierte Abfrage von Messmittel

Messwerte für die Stichprobenprüfung oder für einzelne Bauteile werden direkt für die Dokumentation in einem Prüfplan erfasst. Der Prüfplan gibt hier also die Abfrage vor. In diesem Fall müssen die Messdaten des Messmittels nicht kontinuierlich, sondern nur während einer Prüfung übertragen werden. In diesem Fall ist zu definieren, wie die Prüfwertübernahme ausgelöst wird. Dies kann durch die Verwendung eines Hand- oder Fußtasters erfolgen. Eine andere Möglichkeit ist der Datenabruf durch den Prüfplan. Nach Betätigung eines Buttons in der Eingabemaske ruft die Software im Hintergrund proaktiv den Messwert vom Prüfgerät ab.

Kontinuierliches On-Line-Monitoring

Werden Messwerte nicht stichprobenartig mit Hilfe eines Prüfplans erfasst, sondern sollen Prozesse kontinuierlich dokumentiert werden, hat dies auch Auswirkungen auf die Messmittelanbindung. Für die Datenabfrage wird ein Intervall festgelegt, z.B. sollen alle 5 Minuten die Temperaturwerte in der Produktionshalle abgespeichert werden.

Wie können Messmitteldaten übertragen werden? Lösung 1: Prüfplanbasiert über eine digitale Eingabemaske; Lösung 2: Über ein kontinuierliches Montioring

Schnittstellen zu Messmitteln

Schnittstellentypen

Welche Schnittstellen existieren nun? Prinzipiell gilt hierbei – viele Wege führen nach Rom. So ist auch die folgende Aufzählung nicht abschließend. Je nach Hersteller und Alter des Messmittels existieren weitere Schnittstellen. Mit der folgenden Aufzählung wird jedoch ein Groß der existierenden Schnittstellen abgebildet. Die Einstufung in Unidirektional und Bidirektional ist eine abstrahierte Einstufung - je nach Auslegung der Schnittstelle durch den Hersteller können mehr oder weniger Optionen gegeben sein.

NameBeschreibungÜbertragungTyp
DateiimportImport von Flatfiles wie z.B. csv/txt/datUnidirektionalPrüfplanbasiert,
On-Line Monitoring
MessboxenImport von Daten über Messmittelboxen wie z.B. Steinwald oder IBR MesstechnikUnidirektional,
Bidirektional
Prüfplanbasiert
DFQAustauschformat für Prüfwerte, auch Q-DAS ASCII Transferformat genannt. Standardformat mit Beschreibungsdaten (.DFD) und Messwertedaten (.DFX) - werden beide Daten gemeinsam übertragen, ist die Dateieindung .DFQUnidirektional,
Bidirektional
Prüfplanbasiert
Serielle SchnittstellenÜbertragung über ein serielles Kabel (wie z.B. RS232)Unidirektional,
Bidirektional
Prüfplanbasiert,
On-Line Monitoring
Ethernet-KommunikationÜbertragung über ein LAN-Kabel, wie zum Beispiel Modbus TCPUnidirektional,
Bidirektional
Prüfplanbasiert,
On-Line Monitoring
Analoge SystemeÜbertragung des analogen Sensorsignals, wie z.B. 4..20mA Signale UnidirektionalPrüfplanbasiert,
On-Line Monitoring
OPC UAÜbertragung digitaler Werte über Ethernet, Standard für MaschinendatenauswertungUnidirektional,
Bidirektional
Prüfplanbasiert,
On-Line Monitoring
IO-LinkHerstellerübergreifender Standard zum Austauschen von digitalen SensordatenUnidirektional,
Bidirektional
Prüfplanbasiert,
On-Line Monitoring
APIProgrammierschnittstelen zum Austausch von Daten zwischen IT-SystemenUnidirektional,
Bidirektional
Prüfplanbasiert,
On-Line Monitoring
Übersicht über Schnittstellen für Messmittelanbindungen

Messmittelboxen (Gateway)

Beim Anschluss eines Messmittels muss ein Schnittstellentyp ausgewählt werden. Der konkrete Typ hängt von den Möglichkeiten des Messgerätes ab. Einige Geräte verfügen bereits über eine digitale Schnittstelle. Ist dies nicht der Fall, kommen sogenannte Messmittelboxen zum Einsatz. Bekannte Hersteller sind z.B. Steinwaldboxen oder IBR-Messtechnik. Die Boxen sind in der Lage, die Signale von verschiedenen Messgeräten umzuwandeln und standardisiert verarbeitbar zu machen. Für verschiedene Schnittstellen werden passende Hardwareausführungen angeboten. Neben kabelgebundenen Ausführungen gibt es auch kabellose Möglichkeiten über WLAN oder Bluetooth. Weitere Möglichkeiten sind je nach Anwendungsfall Lösungen auf Basis von einer SPS-Steuerung, Mikrocontrollern wie z.B. Raspberry Pis oder auf Basis von IO-Link.

Bei der Auswahl des Gateways ist zu beachten, ob der Informationsfluss nur vom Messgerät zum Server oder auch vom Server zurück erfolgen soll. Letzteres ist dann sinnvoll, wenn Prüfprogramme oder Spezifikationsgrenzen an das Messgerät übertragen werden sollen.

Weiterleitung von Messdaten

Sind die Messmittel an einen Server angeschlossen, werden die Messwerte auch in der Regel weiterverarbeitet. Standardmäßig werden die Messwerte in einem CAQ- oder ERP-System den jeweiligen Prüfaufträgen zugeordnet und für die Losfreigabe verwendet. Die Daten können aber auch für eine Auswertung oder ein Monitoring interessant sein. Dazu werden die Messwerte in einer Datenbank gespeichert oder auf einem Echtzeit-Dashboard dargestellt.

Auch hier kann die Kommunikation bidirektional zwischen den IT-Systemen (z.B.: ERP / MES / CAQ) und dem Messmittelanbindungssystem erfolgen oder auch nur in eine Richtung. Zum Beispiel können einzelne Prüflose in das ERP-System zurückgemeldet und Prüfpläne im Erfassungssystem verwaltet werden. Unidirektional wäre auch der Übertrag von Vorgaben aus dem ERP-System, wie Prüfaufträge oder Spezifikationsdaten. Beim bidirektionalen Austausch werden in der Regel Vorgabedaten und Prüfaufträge aus dem ERP-System übertragen und Ergebnisse zurückgemeldet. Einzelne ERP-Systeme haben hierfür spezifische Schnittstellen (QM-IDI für SAP wird weiter unten beschrieben) oder die Daten werden zum Beispiel über eine SQL-Tabelle ausgetauscht.

Messmittelanbindung mit der DatenBerg smartPLAZA

Mit der smartPLAZA bieten wir ein System zur Kommunikation mit Messgeräten, zur Datenanalyse und zur Datenüberwachung an. Die smartPLAZA ist sowohl für den bidirektionalen als auch für den unidirektionalen Austausch auf allen Kommunikationswegen geeignet. Mit Hilfe des Data Gateways wird die Kommunikation mit den Messgeräten sichergestellt. Für die gängigen Messgeräte existieren Standardschnittstellen, die einfach angepasst werden können.

In der smartPLAZA können sowohl prüfplanbasierte Abfragen von Messmitteln als auch eine kontinuierliche Online-Überwachung von Messmitteln und Maschinen durchgeführt werden. Die Daten können anschließend direkt an weitere IT-Systeme übergeben werden - API-basiert oder über einen Datenbankexport. In der smartPLAZA können aber auch Analysen durchgeführt und die Messwerte auf Trends und Anomalien überwacht werden.

Die Prüfdatenerfassung findet in einer Webeingabemaske statt und kann mit Bildern sowie Prüfanweisungen versehen werden. Mit einem Knopfdruck werden dann die Daten vom Messmittel in die Eingabemaske übertragen.

Übernahme von Messmitteldaten in die smartPLAZA

Messmittelanbindung in SAP (R3/S4-HANA)

Eine direkte Anbindung von Messgeräten ist in SAP (sowohl R3 als auch S4-HANA) nicht möglich. Hierfür muss eine separate Software eingesetzt werden.

Mit dem Inspection Data Interface (QM-IDI) bietet das Qualitätsmanagement-Modul von SAP eine Schnittstelle für externe Systeme. Diese Schnittstelle bietet zwei grundlegende Funktionalitäten:

Für beide Funktionalitäten stellt die QM-IDI-Schnittstelle verschiedene Funktionsbausteine zur Verfügung, mit denen die erforderlichen Daten ausgetauscht werden. Je nach Konfiguration des SAP-Systems müssen die richtigen Bausteine ausgewählt und in die Schnittstelle eingebunden werden.

Projekt „Digitale Messmittelanbindung“ umsetzen

Um die digitale Messmittelanbindung in der Produktion umzusetzen, bietet sich ein methodisches Vorgehen an. Wir haben ein vier Stufen Projektvorgehen mit den relevanten Projektschritten für Sie zusammengefasst:

  1. Liste aller Messmittel mit Information über mögliche Schnittstellen erstellen
    Welche Messmittel existieren und wie werden Daten erfasst (On-Line, prüfplanbasiert)?
    Welche Messmittel bringen, bereits Schnittstellen mit sich?
    Wo bestehen bereits Messmittelboxen?
    Welche Prüfplätze benötigen Hardware zur digitalen Datenerfassung?
    Output Schritt 1: Liste mit Informationen zum Bestand an Messmitteln und Schnittstellen
  2. Informationsfluss der Messmittel zu relevanten IT-Systemen definieren
    Wie sollen die Daten vom Prüfgerät in welches IT-System fließen?
    Wie werden Prüfaufträge getriggert und wie wird die Prüfaufgabe an den Mitarbeiter kommuniziert?
    Wie sehen die konkreten Schnittstellen der beteiligten IT-Systeme aus?
    Output Schritt 2: Architektur für den Datenaustausch ist definiert
    Die IT-Abteilung kann nun parallel die benötigte Infrastruktur (Netzwerk, Firewalls) schaffen.
  3. Ranking der Messmittel hinsichtlich Kritikalität / Kosten Schnittstelle
    Welche Messmittel sind besonders kritisch hinsichtlich Fehleingaben?
    Welche Kosten (Hardware, Lizenzen) werden für die Einbindung der Messmittel anfallen?
    Output Schritt 3: Ranking der Messmittel hinsichtlich Priorisierung
  4. Anbindung einzelner Messmittel
    Welche Roll-Out Gruppen ergeben sich aus Schritt drei?
    Wie sollen die Daten pro Messmittel abgefragt werden (z.B. Auflösung einstellen)?
    Output Schritt 4: Angeschlossene Messmittel je Roll-Out Gruppe

Die wichtigsten Qualitätskennzahlen

Überblick über Qualitätskennzahlen

Von der Leistungsüberwachung und kontinuierlichen Verbesserung bis zur Entscheidungsfindung und Kundenorientierung - Qualitätskennzahlen spielen eine zentrale Rolle in der Produktion.

Im produktionsnahen Qualitätsmanagement werden oft die folgenden Kennzahlen verwendet:

Die Berechnungsformel für jede dieser Kennzahlen ist weiter unten angegeben.

Weitere Kennzahlen sind die Nelson-Regeln bzw. die Häufigkeit des Auftretens der Nelson-Regeln pro Schicht oder Woche in der Produktion. Zur Bewertung der Beherrschung eines Produktionsprozesses wird der Prozessfähigkeitsindex verwendet. In diesem Artikel haben wir die Berechnung und die Unterschiede der verschiedenen Indexe beschrieben. Zur Beurteilung des Verlaufs einzelner Messwerte bieten sich Qualitätsregelkarten an. Hier haben wir die verschiedenen Kartentypen beschrieben. Der First Pass Yield geht anschließend in die Berechnung der Gesamtanlageneffizienz OEE mit ein. Hier gibt es mehr zur OEE zu lesen.

Qualitätskennzahlen – Formeln

DPMO (Defects per Million Opportunities)

DPMO steht für Defects per Million Opportunities und gibt an, wie viele Fehler bei einer Million Möglichkeiten für einen Fehler auftreten. Ein DPMO von 500 würde bedeuten, dass es 500 Fehler pro Million Möglichkeiten gibt. Diese 500 Fehler können an einem Bauteil auftreten. Die Fehlermöglichkeiten ergeben sich aus den Spezifikationen. Jede vorgegebene Spezifikation ist eine Fehlermöglichkeit. Hat ein Bauteil 10 Spezifikationsgrenzen, so gibt es 10 Fehlermöglichkeiten pro Bauteil. Für die DPMO werden die Fehlermöglichkeiten pro Bauteil mit der Anzahl der Bauteile in der Stichprobe multipliziert.

DPMO = \frac {Anzahl \, Fehler}{Anzahl \, der \,Fehlermöglichkeiten}*1 \,000 \,000

DPMU (Defects per Million Units)

DPMU steht für Defects per Million Units und gibt an, wie viele Fehler pro Million produzierter Einheiten auftreten. Ein DPMU von 5 bedeutet, dass 5 Fehler pro Million produzierter Einheiten auftreten. Die Anzahl der Fehler berücksichtigt, wie bei der DPMO, mehrere Fehlerbilder an einem Produkt. Grenzfall: Liegt nur eine Spezifikation (z.B. Länge des Bauteils) vor, entspricht die DPMU der DPMO.

DPMU = \frac {Anzahl \, Fehler}{Anzahl \,der \ Einheiten}*1 \,000 \,000

PPM (Parts per Million)

PPM steht für Parts per Million und gibt an, wie viele fehlerhafte Teile in einer Million produzierter Teile enthalten sind. Zum Beispiel würde ein PPM von 100 bedeuten, dass es 100 fehlerhafte Teile pro Million produzierter Teile gibt. Im Gegensatz zur DPMU wird jedes fehlerhafte Teil nur einmal gezählt, auch wenn es z.B. mehrere Fehler aufweist.

PPM = \frac {Anzahl \,defekter \, Einheiten}{Anzahl \,der \, Einheiten}*1 \,000 \,000

FPY (First Pass Yield)

Der First Pass Yield wird auch als Erstausbeute oder Ausschussquote bezeichnet. Sie gibt den Anteil der fehlerfreien Einheiten an der Produktion an. In der chemischen Industrie wird der Anteil auf die Menge und nicht auf die Stückzahl bezogen.

FPY= \frac {Anzahl \,nicht \, defekter \, Einheiten}{Anzahl \,der \, Einheiten}*1 \,000 \,000

RTY (Rolled Troughput Yield)

Der Rolled Troughput Yield oder Gesamtausbeute gibt an, wie viele Einheiten die gesamte Prozesskette im ersten Durchlauf erfolgreich durchlaufen haben. Der RTY wird berechnet, indem die FPY der einzelnen Prozessschritte miteinander multipliziert werden.

RTY = FPY_1 * FPY_2 * ... * FPY_n

Ausschussquote (Scrap Rate)

Die Ausschussquote an, wie viele Einheiten die gesamte Prozesskette im ersten Durchlauf erfolgreich durchlaufen haben im Vergleich zu den defekten Bauteilen.Dies ist das Verhältnis der fehlerhaften oder unbrauchbaren Produkte zur Gesamtproduktion.

Ausschussquote = \frac {Auschuss_{Anzahl} }{Gesamt_{Anzahl}}

Anzahl Reklamationen

Reklamationen sind Beschwerden von internen und externen Kunden. Die Anzahl der Reklamationen zeigt die Summe der Vorfälle in einem definierten Zeitraum.

Kosten schlechter Qualität (Cost of non Quality)

Qualitätskosten beziehen sich auf die finanziellen Auswirkungen von Qualitätsmängeln und Fehlern in einem Produktionsprozess. Diese Kosten sind häufig verdeckt, da sie im klassischen Controlling nicht ausgewiesen werden. Die Berechnungsgrundlage legt jedes Unternehmen individuell fest, dies können Nacharbeitskosten oder Bearbeitungszeiten für Reklamationen sein. Mit Hilfe dieser Kosten können Verbesserungsmaßnahmen im Rahmen des KVP besser priorisiert werden.

Beispiele für Qualitätskennzahlen

In unserem fiktiven Produktionsprozess werden in einem ersten Arbeitsgang tausend (n=1 000) Metallstücke geschnitten. Die einzige Spezifikation ist die Länge. Während der Produktion treten bei drei Teilen Einlegefehler auf. Diese Teile werden als Ausschuss klassifiziert.

Damit ergeben sich folgende Qualitätskennzahlen für den ersten Prozessschritt:

FPY = \frac{997}{1\,000} = 99,70\%
DPMO = \frac{3}{1000}*1 \,000 \,000 = 3\,000.00
DPMU = \frac{3}{1000}*1 \,000 \,000 = 3\,000.00
PPM = \frac{3}{1000}*1 \,000 \,000 = 3\,000.00

Beobachtung: Aufgrund der Tatsache, dass nur eine Spezifikationsgrenze existiert und daher jedes Teil genau einen Fehler haben kann, sind die Kennzahlen DPMO, DPMU und PPM gleich. Bei der Interpretation der Kennzahlen ist daher auch die Berücksichtigung der Spezifikationsgrenzen und des Produktionsprozesses relevant.

Im zweiten Prozessschritt werden die geschnittenen Teile (997 Stück) in einem Drehautomaten weiterbearbeitet. Hierbei müssen zwei Maßvorgaben und zwei optische Vorgaben (kratzerfrei, keine Beulen) eingehalten werden. Daraus ergeben sich vier Fehlermöglichkeiten pro Teil. Davon erreichen vier Teile aufgrund von Werkzeugverschleiß nicht das geforderte Maß. Zwei davon sind zusätzlich verkratzt. Somit werden 993 Teile als Gutteile klassifiziert.

FPY = \frac{993}{997} = 99,59\%
DPMO = \frac{6}{4*997}*1 \,000 \,000 = 1\,504.5
DPMU = \frac{6}{997}*1 \,000 \,000 = 6\,018.05
PPM = \frac{4}{997}*1 \,000 \,000 = 4\,012.01

Beobachtung: Im Vergleich zum ersten Prozessschritt unterscheiden sich die Kennzahlen. Die DPMO ist niedriger als die DPMU, da hier die Fehlermöglichkeiten in Betracht bezogen werden und nicht nur die Anzahl der Defekte. In diesem Prozess existieren vier Fehlermöglichkeiten, was die DPMO um den Faktor vier niedriger ausfallen lässt.

Aus den beiden Verfahrensschritten wird nun die Gesamtausbeute RTY berechnet. Dazu werden die FPY des ersten und zweiten Verfahrens miteinander multipliziert.

RTY = FPY_1 * FPY_2 = 99,70\% * 99,59\% = 99,29\%

Beobachtung: Die Gesamtausbeute ist über beide Prozessschritte betrachtet, geringer als die Einzelbetrachtung.

Welche Software kann man für die Berechnung von Qualitätskennzahlen verwenden?

Für die Berechnung von Qualitätskennzahlen bietet sich der Einsatz von Software an. Dies hat mehrere Vorteile. So werden die Kennzahlen über einen längeren Zeitraum standardisiert erfasst und verglichen. Trends sind dadurch sichtbar und es kann proaktiv gegengesteuert werden.

Für einfache Berechnungen kann ein Tabellenkalkulationsprogramm wie Excel verwendet werden. Hier können die relevanten Werte pro Schicht einfach manuell eingegeben und die Werte berechnet werden. Nachteilig ist hier der manuelle Aufwand und die eigenständige Erstellung und Pflege der Dateien.

Eine Alternative sind Statistikprogramme wie QStat oder Minitab. Nachteil ist hier der Fokus auf die rein statistische Berechnung - die Programme bringen oft vordefinierte Berechnungsregeln mit, die schwer anzupassen sind. Außerdem arbeiten die Programme oft mit statischen Daten, d.h. der Anwender muss selbst neue Datensätze für die Berechnung laden. Dies kostet Arbeitszeit.

Mit Prozessüberwachungssoftware, wie der DatenBerg smartPLAZA, können relevante Daten in Echtzeit von den Maschinen übernommen und Kennzahlen direkt berechnet werden. Mit Hilfe von Monitoring Funktionen werden Trends automatisch erkannt und die QS bzw. das QM informiert.

FAQ zu Qualitätskennzahlen

Was sind Qualitätskennzahlen?

Durch Qualitätskennzahlen werden Produkte und Prozesse anhand objektiver Kennzahlen bewertet. Beispiele sind First Pass Yield (FPY) oder Parts per Million (ppm).

Gibt es fest definierte Qualitätskennzahlen?

Die Berechnung von Qualitätskennzahlen wie dem First Pass Yield ist im Allgemeinen fest definiert. Die Interpretation und Definition der Berechnung erfolgt jedoch individuell im Unternehmen. Als Beispiel wird Unternehmen A der Anfahrausschuss im FPY berücksichtigt und in Unternehmen B exkludiert.

Welche Software für die Berechnung von Qualitätskennzahlen?

Für einen schnellen Einstieg bieten sich Tabellenkalkulationsprogramme oder Minitab an. Ist es notwendig, Berechnungen automatisiert durchzuführen, können Prozessüberwachungssysteme wie die DatenBerg smartPLAZA eingesetzt werden.

KI in der Qualitätssicherung

Herausforderungen in der QS

Um zu verstehen, wo KI in der Qualitätssicherung (Abkürzung QS) unterstützt, betrachten wir zuerst die Aufgabenbereiche der QS. Die Qualitätssicherung ist branchenübergreifend für verschiedene Aufgaben in der Produktion zuständig. Typischerweise gehört dazu die Qualitätskontrolle von ein- und ausgehenden Waren, Produkten und Dienstleistungen. Zu den Aufgaben gehört auch, maschinelle Prozesse zu überwachen und zu beobachten. Die Qualitätssicherung ist auch in die Fertigungs(end)kontrolle eingebunden. Dies geschieht durch Stichprobenprüfungen oder im Rahmen der statistischen Prozesskontrolle. Dabei werden standardisierte Stichproben durchgeführt und anschließend u.a. mit statistischen Ansätzen ausgewertet.

Die Herausforderung besteht darin, repetitive Tätigkeiten, bei denen der Mensch nur noch als Sachbearbeiter eingesetzt wird, zu automatisieren. Dies hat die Bindung von Kapazitäten und die Verursachung von Kosten zur Folge. Die QS sollte die Kapazitäten für solche Aufgaben stattdessen dafür einsetzen, die Produktion im Sinne einer kontinuierlichen Verbesserung zu optimieren.

Beschreibung der KI

Bevor wir die Anwendungsfelder von KI in der Qualitätssicherung beschreiben, machen wir einen kurzen Exkurs zu den Grundlagen der KI. Bei einer künstlichen Intelligenz handelt es sich um nichts anderes als einen Algorithmus im Hintergrund. Dieser Algorithmus ist oft in eine Datenverarbeitung integriert und führt eine bestimmte Aufgabe aus. Dabei kann es sich z. B. um die Klassifikation von Bildern oder um die Erkennung von Mustern in Prozessdaten handeln. Algorithmen werden in überwachtes und unüberwachtes Lernen unterschieden. Erstere sind im Einsatz, wenn z.B. die Klassifikation von Bildern das Ziel ist. Letztere eignen sich für die Erkennung von Anomalien. Sowohl beim überwachten als auch beim unüberwachten Lernen gibt es verschiedene Algorithmen, die für unterschiedliche Anwendungen geeignet sind. Künstliche Neuronale Netze oder Entscheidungsbäume sind Beispiele dafür. Verwandte Begriffe sind u.a. maschinelles Lernen sowie der englische Begriff Deep Learning.

Anwendungsfelder

Alle Anwendungsfelder für KI in der Qualitätssicherung haben ein Ziel gemeinsam: Automatisierung von wiederholbaren Aufgaben und Übernahme repetitiver Aufgaben durch den Computer. So bleibt der QS die Möglichkeit sich auf die kreativen Aufgaben der Verbesserung und Problemlösung zu fokussieren.

Bilddatenauswertung

Ein Anwendungsfall ist die Bilderkennung. Gerade in der Montage oder der Endkontrolle von Bauteilen bieten sich optische Prüfungen an. Typische Metriken sind die Vollständigkeit des Bauteils, die Kratzerfreiheit oder die Bewertung einer Form. KI kann hier bei der Bildauswertung helfen. Dabei klassifiziert ein QS-Mitarbeiter mehrere Bilder und teilt sie in verschiedene Klassen ein oder annotiert einzelne Fehlerbilder. Anschließend wird ein Algorithmus auf dieser Bildauswahl trainiert. Im Live-Betrieb erhält der Algorithmus ein neues Bild der Baugruppe und ordnet dieses selbstständig den gelernten Klassen zu.

Dynamische Messreduktion

In Branchen mit hohen serienbegleitenden Prüfungen, wird oft die Frage nach einer Reduktion des Prüfumfangs laut. Mit Hilfe einer dynamischen Messreduktion kann der Umfang reduziert werden. Dazu wird auf Basis des Anlagenverhaltens entschieden, ob eine Prüfung notwendig ist. Ein Algorithmus überwacht dabei einzelne Prozessparameter und schätzt basierend auf diesen die zu erwarteten Qualität ab. Wird der Prozesszustand als kritisch angesehen, wird eine Messung empfohlen. Ebenfalls erkennt die KI, wenn bisher unbekannte Zustände auftreten und empfiehlt eine Messung. Mit Hilfe dieses Feedbackloops kann die KI über die Zeit mehr dazulernen. In unserem Anwendungsbeispiel haben wir beschrieben, wie bis zu 70% der serienbegleitenden Prüfungen in der Gummiherstellung eingespart werden können.

Monitoring von Prozessparametern

Das manuelle Überwachen von maschinellen Prozessen ist zeitaufwendig. Mit Hilfe der KI kann dieser Prozess weitgehend automatisiert werden und der Mensch muss nur noch Anomalien und Auffälligkeiten analysieren. Hierzu wird einem Algorithmus der typische Prozessverlauf vorgegeben, welchen der Mensch als „normal“ definiert. Die KI erlernt diesen Zustand und kann Abweichungen hiervon erkennen. Ebenfalls such diese nach Trends und weiteren Auffälligkeiten, um den Prozess gesamtheitlich zu überwachen. Wird eine Anomalie entdeckt, benachrichtig der Algorithmus die QS. Diese kann dann die entsprechen Korrekturmaßnahmen einleiten. Hier finden Sie mehr Informationen zu Monitoringmöglichkeiten in der Produktion.

Reaktion auf Materialschwankungen

In den rohstoffverarbeitenden Industrien kommt es häufig vor, dass eine gewisse Schwankungsbreite im Rohmaterial vorhanden ist. Hier muss der Produktionsprozess für jede Charge individuell angepasst werden. Die QS kann dies mit Hilfe intelligenter Algorithmen steuern. Dabei werden über einen gewissen Zeitraum die Wareneingangsprüfungen mit den Maschinenparametern verglichen und Einstellregeln definiert. Ein Algorithmus kann dieses Wissen dann digital abbilden. So wird der Mitarbeiter an der Anlage bei einer neuen Charge über die optimierten Einstellparameter informiert. Dies kann auch für temperatursensitive Prozesse genutzt werden.

Quellen

Qualitätsregelkarte

Was ist eine Qualitätsregelkarte?

Die Qualitätsregelkarte wird in der Qualitätssicherung eingesetzt. Dabei wird der Verlauf eines gemessenen Wertes über der Zeit aufgetragen. Mit Hilfe von statistischen Berechnungen werden Eingriffsgrenzen für den Prozess festgelegt. Liegt eine gezogene Stichprobe außerhalb dieser Eingriffsgrenzen ist dies ein Hinweis auf ein mögliches Problem im Produktionsprozess. Für verschiedene Anwendungen existieren Varianten zur Berechnung der Eingriffsgrenzen. Das Ziel der Qualitätsregelkarten ist dabei die Stabilität und Fähigkeit von Produktionsprozessen zu erreichen, zu erhalten sowie langfristig zu verbessern.

Merkmalstyp: Attributiv und Kontinuierlich

Wenn es um die Auswahl der richtigen Qualitätsregelkarten geht, wird zuerst der Merkmalstyp analysiert. Dabei werden zwei Typen unterschieden:

Je nach Merkmalstyp kann die entsprechende Qualitätsregelkarte ausgewählt werden.

Typen von Qualitätsregelkarten

Regelkarten für kontinuierliche Merkmale

Für kontinuierliche Merkmale bieten sich die folgenden Regelkarten an:

Der gleitende Mittelwert sowie die EWMA-Karte haben den Vorteil, dass auch historische Werte in die Berechnung der Grenzen mit einfließt. Dem gegenüber steht eine höhere Komplexität. Gerade bei kleinen Stichprobengrößen, kann der Prozess besser in der Regelkarte abgebildet werden.

Regelkarten für diskrete Merkmale

Für diskrete Merkmale bieten sich diese Regelkarten an:

Hinweis: In der Industrie geht der Trend dahin, dass Regelkarten für diskrete Merkmale weniger angewandt werden. Dies rührt unter Anderem daher, dass bei kleinen Fehleranteilen unrealistisch viele Stichprobenmengen zur Berechnung gezogen werden müssten. Ebenfalls wird oft bemängelt, dass die Regelkarten nur funktionieren, wenn Fehler vorhanden sind. Daher wird angezweifelt, ob diese zu einer Prozessstabilisierung beitragen. Der Trend geht viel mehr dahin, die diskrete Merkmale durch kontinuierliche Merkmale zu ersetzen. Dies birgt weitere Vorteile bei der Auswertung.

Führen von Qualitätsregelkarten

Beim Führen von Regelkarten lassen sich zwei Stufen unterscheiden - zum einen die Prüffrequenz, also wie oft Stichproben entnommen werden, und zum Anderen der Beurteilungsvorgang der Regelkarte.

Prüffrequenz

Bei der Häufigkeit der Entnahme von Stichproben wird die Kritikalität der Qualitätsmerkmale, die Prozessstabilität sowie die Fertigungsform (Serienfertigung oder Kleinserienfertigung) betrachtet. Liegt ein hohes Risiko bei einem schlecht beherrschtem Prozess vor, sollten mehr Stichproben gezogen werden. In der Praxis bietet sich eine Stichprobenumfang von n = 5 an. Die Zeitabständen zwischen Stichprobenentnahmen sollte konstant gehalten werden.

Beurteilen der Stichproben

Nach dem Ziehen einer Stichprobe wird das gemessene Ergebnis beurteilt. Hierbei können zwei Fälle auftreten:

Zweck von Qualitätsregelkarten

QRK ermöglichen es, die Qualität von Prozessen oder Produktionen zu bewerten, indem sie Veränderungen in den Ergebnissen des Prozesses im Laufe der Zeit verfolgen. Durch die Überwachung von Schlüsselvariablen können Abweichungen von den normalen Prozessleistungen erkannt werden, bevor sie zu größeren Problemen führen. Dazu „springt eine Regelkarte an“, wenn einer der folgenden Fälle erkannt wird:

Die Fälle werden im Rahmen des Aufsetzens der Qualitätsregelkarten unternehmensspezifisch definiert.

Insgesamt dienen Qualitätsregelkarten als Werkzeug zur kontinuierlichen Verbesserung von Prozessen und Produktionen, indem sie es den beteiligten Personen ermöglichen, proaktiv auf Probleme zu reagieren und ihre Leistung im Laufe der Zeit zu überwachen und zu verbessern.

Beispielrechnung für eine Regelkarte

  1. Berechnen Sie den Durchschnitt (X̅) der erfassten Daten über einen bestimmten Zeitraum.
  2. Berechnen Sie die obere und untere Eingriffsgrenze (UEG und OEG) basierend auf der Standardabweichung (σ) der Daten und der Größe der Stichprobe (n) wie folgt:
OEG= \bar{X} + \frac{3\sigma}{\sqrt{n}}
UEG= \bar{X} - \frac{3\sigma}{\sqrt{n}}

3. Tragen Sie die erfassten Durchschnittswerte auf der X̅-Karte auf und zeichnen Sie die Mittellinie (X̅) sowie die obere (OEG) und untere (UEG) Eingriffsgrenze ein:

Qualitätsregelkarte mit eingezeichneter oberer und unterer Eingriffsgrenze

4. Nach Stichprobenentnahme: Durchschnitt der Stichprobe berechnen und in der Qualitätsregelkarte auftragen. Wenn der Durchschnittswert außerhalb der Kontrollgrenzen liegt, ist dies ein Zeichen dafür, dass der Prozess oder die Produktion nicht stabil ist und Maßnahmen ergriffen werden müssen, um das Problem zu lösen.

Qualitätsregelkarte mit eingezeichneten Messwerten und Hinweis, wann ein Eingriff notwendig ist

Echtzeit-Qualitätsregelkarte mit der smartPLAZA

Mit der Software smartPLAZA lassen sich Qualitätsregelkarten automatisiert in Echtzeit umsetzen. Für jeden neu gemessenen Wert – egal ob Sensorwert oder händisch gemessener Wert – wird die QRK aktualisiert und abgeprüft. Liegt ein Ansprechen der Karte vor, wird automatisiert eine Meldekette angestoßen.

Wie funktioniert das Einrichten von einer Qualitätsregelkarte mit der Software smartPLAZA?

  1. Einbinden der Datenquellen

    Für die Erfassung der Messwerte können entweder die Standardkonnektoren zur Anbindung einer Maschine oder vorgefertigte Templates für Prüfpläne verwendet werden. Erstere rufen zyklisch automatisch die Messwerte an der Steuerung der Maschine ab. Die Prüfpläne fordern den Mitarbeiter auf definierte Merkmale zu messen. Die Prüfwerte können auf einem Tablet oder einem Rechner erfasst werden.

  2. Einrichten des Regelkarten-Monitorings

    Im Monitoring Modul werden die einzelnen Qualitätsmerkmale ausgewählt und die Überwachung mit Hilfe von vorgefertigten Qualitätsregelkarten konfiguriert. Nach Wahl der passenden Auswertung, können die Fälle, wann gewarnt werden soll, individuell angepasst werden. Zum Schluss wird die Meldekette definiert, wann wer in der Produktion gewarnt werden soll. Warnungen können via Dashboards, E-Mail oder SMS ausgegeben werden.

  3. Anpassung Dashboard für Echtzeit-Visualisierung

    Soll die Qualitätsregelkarte direkt an der Anlage visualisiert werden, bietet die smartPLAZA vorgefertigte Dashboards an. Diese können leicht auf die Bildschirmgröße angepasst und freigegeben werden. Die Anzeige wird sofort aktualisiert, wenn ein neuer Messwert im System hinterlegt und die Regelkarten erneut berechnet werden.

Vor-Und Nachteile von Qualitätsregelkarten

(-) Unzulässige Vergleiche zwischen Grenzen

Einzelwerte können mit oberen bzw. unteren Toleranzgrenzen verglichen werden. Statistische Kenngrößen mit wie der Mittelwert oder Median können mit den berechneten Eingriffsgrenzen verglichen werden. Ein Vergleich der statistischen Kennzahlen mit den Toleranzgrenzen ergibt jedoch keinen Sinn. Denn liegt der Mittelwert einer Stichprobe innerhalb der Toleranzgrenzen, können Einzelwerte dennoch außerhalb der Toleranzgrenzen liegen.

(-) Aufwand bei Händisch geführte Qualitätsregelkarten

Werden Qualitätsregelkarten manuell geführt erzeugt dies einen Aufwand für den Mitarbeiter. Ebenfalls muss ein gewisses statistisches Grund Verständnis vorhanden sein, um die Regelkarten korrekt zu interpretieren. Daher sind manuell geführte Regelkarten zu vermeiden.

(+) Frühzeitige Erkennung von Problemen

Durch die Überwachung von Schlüsselvariablen können Abweichungen von der Zielvorgabe frühzeitig erkannt werden, bevor sie zu größeren Problemen führen. Die Erkennung ist dabei nicht abhängig von einem subjektiven Empfinden, sondern basiert auf Zahlen, Daten, Fakten.

FAQ Qualitätsregelkarten

Was ist eine Qualitätsregelkarte?

Eine Qualitätsregelkarte (QRK) ist ein Werkzeug, das in der Qualitätssicherung zur Überwachung und Steuerung der Stabilität und Leistung eines Prozesses oder einer Produktion über einen bestimmten Zeitraum verwendet wird.

Die Qualitätsregelkarte basiert auf statistischen Methoden und stellt die Ergebnisse einer Messung oder einer Messreihe auf einer Achse im Zeitverlauf grafisch dar. Die Karte hat eine Mittellinie, die den Mittelwert der Messungen darstellt, und Grenzlinien, die die Ober- und Untergrenzen der akzeptablen Abweichung von der Mittellinie darstellen. Durch die Überwachung der Messungen auf der Karte können Abweichungen vom erwarteten Verhalten schnell erkannt und Probleme behoben werden, bevor sie zu größeren Problemen führen.

Welcher Stichprobenumfang bei Qualitätsregelkarten?

Im Standardfall sollte ein Stichprobenumfang von n = 5 gewählt werden. So wird der Prozess gut abgebildet.

Quellen / Weitere Literatur

Heft zur statistischen Prozessregelung von Bosch hier zu lesen

Taschenbuch Null-Fehler-Management (ISBN 978-3-446-42262-9)

Overall Equipment Efficiency (OEE)

Definition OEE-Berechnung

Um einen gesamtheitlichen Blick auf die Anlagenperformance zu erhalten, bedarf es der Kombination von verschiedenen Kennzahlen. Eine reine Optimierung auf die gefertigte Qualitätsrate würde eventuell ansonsten einen Minderung  der Verfügbarkeit mit sich ziehen. Wird nur auf einen Parameter hin optimiert (z.B. Qualitätsrate), könnte die Verfügbarkeit zum Beispiel unbemerkt leiden. Mit der OEE werden die drei Sichtweisen Verfügbarkeit, Produktivität und Qualität kombiniert. Die Berechnung der einzelnen Kennzahlen ist im folgenden Schaubild dargestellt. Eine Anleitung zum OEE berechnen haben wir hier im Detail beschrieben.

Jede Produktion definiert die einzubeziehenden Informationen in die Felder Verfügbarkeit, Produktivität und Qualität selbst. Als Beispiel anzuführen, ist die Diskussion, welche Stillstände geplant und welche nicht geplant sind.

Zweck der OEE

Verbesserungsprojekte validieren

Die Gesamtanlageneffizienz dient dazu einen neutralen Blick auf die Anlage zu generieren. Anhand der Kennzahlen können Verbesserungen als auch Verschlechterungen an der Anlage transparent dargestellt werden. Wird zum Beispiel ein Verbesserungsprojekt zur Reduktion der Stillstands Zeiten durchgeführt, müsste sich im Nachgang die Kennzahl erhöhen.

Bottlenecks identifizieren

Ebenfalls kann die Overall Equipment Efficiency verwendet werden, um sogenannte Bottlenecks und Schwachstellen im Produktionsprozess zu identifizieren. Anlagen mit einer niedrigeren Gesamtanlageneffizienz im Vergleich zu ähnlichen Anlagen mit ähnlichem Produktportfolio weißt auf ein Problem an der Anlage hin.

Produktionslinien vergleichen

Wenn die Gesamtanlageneffizienz nicht auf eine einzelne Maschine, sondern auf gesamte Produktionslinien angewandt wird, können hier ebenfalls Vergleiche der Performance durchgeführt werden. Hierzu müssen Ausschussraten und Mengen über die einzelnen Linien hin aggregiert werden.

OEE berechnen

Die Grundformel für lässt sich sehr einfach darstellen:

OEE = Verfügbarkeit * Produktivität * Qualität \newline
Verfügbarkeit = \cfrac{Betriebsdauer}{Geplante\, Produktionszeit - Geplante\, Stillstände}
Produktivität= \cfrac{Zykluszeit_{Soll}*Produzierte\, Menge}{Betriebsdauer}
Qualität= \cfrac{Gutmenge}{Produzierte\, Menge}

Spannend wird es in der Kalkulation in der Produktion. Prinzipiell lassen sich zwei Datentypen hierbei unterscheiden. Vorgabeparameter wie die geplante Produktionszeit und vorgegebene Mengen sind oft im ERP-System hinterlegt. IST-Zahlen wie produzierte Menge, Ausschuss und Stillstandszeiten werden oft direkt an der Maschine bzw. Anlage erfasst.

Eine Berechnung kann manuell erfolgen. Hierzu werden am Schichtende durch den Schichtleiter die Berechnungen in zum Beispiel einem Tabellenkalkulationsprogramm durchgeführt. Im Shopfloor-Meeting am nächsten morgen werden die Kennzahlen dann manuell gesammelt und besprochen.

Mit Hilfe von Software lässt sich das jedoch besser abbilden. Hierzu wird zum einen eine Schnittstelle zur Maschine sowie zum ERP-System benötigt. So können die relevanten Parameter abgefragt und in die Berechnung eingebunden werden. Für die Berechnung bietet sich dann ein zyklischer Job an, der nach Abschluss einer Schicht die Daten abgreift und berechnet.

OEE in verschiedenen Branchen

Klassischerweise wird die Overall Equipment Efficiency dazu verwendet, um einzelne Maschinen (z.B. Kunststoffspritzgussautomaten) zu überwachen. Je nach Schwerpunkt der Fertigung und Wertschöpfung bieten sich jedoch auch andere Maschinentypen zur OEE-Berechnung an. Im Bergbau werden zum Beispiel OEE-Kennzahlen eingesetzt, um Transport-LKWs zu monitoren. Als Qualitätsfaktor wird hier der Füllgrad der LKW angesetzt. In Branchen mit hohen Prüfaufwendungen, z.B. Elektronikfertigung, wird die Gesamtanlageneffizienz zur Analyse von Prüfgeräten verwendet.

Beispielrechnung für eine OEE

Doch wie wird die Gesamtanlageneffizienz konkret berechnet? In der folgenden Tabelle finden Sie eine Beispielrechnung für eine diskrete Fertigung von Stückgütern für eine Schicht.

ParameterVerlustgründeBerechnung
Geplante ProduktionszeitGeplante WartungenGeplante Betriebszeit: 480 min
Geplanter Stillstand: 30 min
Geplante Produktionszeit = 480 min-30 min = 450 min
VerfügbarkeitAnlagenausfall
Rüstzeiten
Einstellen von Prozessparameter
Stillstände (ungeplant): 20min
Verfügbarkeit = 450 min - 20 min / 450 min = 95,55 %
ProduktivitätAnlagenleerlauf
Verringerte Anlagengeschwindigkeit
Soll-Zykluszeit: 6 min
IST-Menge: 62 Stück
Produktivität = (6 min x 62 Stück) / 430 min = 86,51 %
QualitätWerkzeugverschleiß
Anlaufverluste
Rohstoffschwankungen
IST-Menge: 62 Stück
Ausschuss: 3 Stück
Qualität = (62-3) / 62 = 95,16 %

Mit den oben berechneten Werte Verfügbarkeit, Produktivität und Qualität verhält sich die Gesamtanlageneffizienz wie folgt:

OEE = Verfügbarkeit * Produktivität * Qualität = 95,55 \% * 86,51\% * 95,16\% = 78,65\% \newline 

Die Kennzahl kann dann für jede Maschine, Schicht und Abteilung berechnet werden. Spannend wird es, wenn der Verlauf über mehrere Wochen hin analysiert wird. So lässt sich früh ein Trend erkennen.

OEE-Berechnung mit der Software smartPLAZA

Welche Schritte werden benötigt, um eine Overall Equipment Efficiency in der Produktion zu berechnen? Finden Sie hier unser vier Schritte Konzept:

  1. Einbindung der Datenquellen

    Zum einen werden die IST-Daten von der Maschine eingebunden. Die Daten können bereits aggregierte Werte (z.B. Ausschuss pro Auftrag) enthalten oder die Rohdaten (z.B. IST-Prozesswerte pro Schuss, Messergebnisse) enthalten. Ebenfalls werden die Vorgabedaten aus dem ERP-System eingebunden. Für beide Schnittstellen stehen im Data Warehouse Standard Konnektoren zur Verfügung.

  2. Definition der OEE-Berechnung

    Im Reportingtool wird die OEE-Berechnung definiert. Hierzu werden die Vorgabedaten den einzelnen OEE-Bausteinen zugeordnet. Dabei können auch weitere individuelle Adaptionen durchgeführt werden. Ebenfalls werden die IST-Daten den jeweiligen OEE-Blöcken zugeordnet. Ebenfalls wird der Berechnungszeitpunkt bestimmt, zum Beispiel 30min nach Schichtende. Nach Aktivierung werden die OEE-Daten zyklisch automatisiert berechnet und in eine eigene Datentabelle weggeschrieben.

  3. OEE-Visualisierung erstellen

    Für die Visualisierung wird ein Dashboard empfohlen. Hier stehen vorgefertigte Templates zur Verfügung, um die relevanten Datenpunkte anzuzeigen. Diese müssen mit der OEE-Tabelle verknüpft werden. Anschließend kann das OEE-Dashboard freigegeben werden.

  4. OEE-Monitoring einrichten

    Je nach Anzahl der Maschinen kann das Monitoring der OEE-Kennzahlen komplex werden. Mit Hilfe der Monitoring Funktionalität können die einzelnen Datenpunkte überwacht werden. Tritt ein Trend über mehrere Schichten auf, kann direkt zum Beispiel der Schichtleiter benachrichtigt werden.

Vor- und Nachteile der OEE

Höhe der OEE

Obwohl die Berechnungsformel recht einfach ist, hängt die Höhe der Kennzahl von vielen getroffenen individuellen Annahmen ab. Eine pauschale Aussage wie „ab einer OEE von X% ist die Produktion gut“ ist daher schwierig und sollte nicht getroffen werden. Die Gesamtanlageneffizienz ist ein Tool, um Verbesserungspotential aufzuzeigen. Bei gleicher Berechnungsgrundlage, eignet sich die Kennzahl natürlich auch für ein Benchmarking zwischen Maschinen, Abteilungen, Werken und Unternehmen. Aber nur bei gleichen Annahmen - sonst werden Äpfel mit Birnen verglichen.

Gesamtheitlicher Blickwinkel

Mit der OEE-Kennzahl kann ein gesamtheitlicher Blickwinkel auf die Anlagenperformance gerichtet werden. Verbesserungsmaßnahmen können durch die Kennzahl leicht validiert und hinsichtlich verschiedener Dimensionen (Verfügbarkeit, Produktivität und Qualität) geprüft werden.

FAQ

Was ist ein guter für die Overall Equipment Efficiency-Wert?

Einen pauschalen absoluten Zielwert zu formulieren ist nicht einfach. Pauschal lässt sich sagen, je höher desto besser. Jedoch basiert die Berechnung auf vielen individuellen Annahmen. Diese können die Kennzahl künstlich nach oben treiben bzw. unten halten. In Allgemeinen wird jedoch eine OEE von über 80% als gut angesehen.

Wie wird die Kennzahl OEE berechnet?

Die Kennzahl wird berechnet aus der Multiplikation der Verfügbarkeit, Produktivität und Qualität an einer Anlage bzw. Maschine. Sie nimmt Werte von null bis 100% an.

Gibt es eine Norm für die Overall Equipment Efficiency?

Es existiert keine einheitliche Norm für die Berechnung der Kennzahl. Daher ist ein Vergleich zwischen Unternehmen (und auch Werken) bei verschiedenen Annahmen zur Berechnung oft irreführend.

Quellen

Anwendung in der Bergbaubranche mit Berechnung der OEE hier nachzulesen

Informationen zu OEE und von Lean-Spezialist Prof. Roser hier nachzulesen

Kritische Lenkungspunkte (CCP)

Was sind CCPs?

CCP steht für Critical Control Point, was einen kritischen Kontrollpunkt in einem Prozess bezeichnet, an dem eine Kontrolle erforderlich ist, um die Lebensmittelsicherheit zu gewährleisten. Das Monitoring von CCPs ist entscheidend, um sicherzustellen, dass die festgelegten Kontrollmaßnahmen effektiv funktionieren.

Auf der Grundlage der HACCP-Analyse wird ein kritischer Lenkungspunkt (CCP) festgelegt. Dieser umfasst kritische Grenzwerte, die festgelegt und validiert werden müssen. Die Informationen können aus der wissenschaftlichen Literatur oder aus anderen Quellen stammen. Beispiele sind Informationen von Handels- und Industrieverbänden, unabhängigen Experten oder Regulierungsbehörden. Darüber hinaus müssen die CCPs den technischen Fortschritt im Laufe der Zeit berücksichtigen. Dies bedeutet, dass die CCPs im Laufe der Zeit aktualisiert werden müssen.

Kritische Lenkungspunktes (CCP) werden im Lebensmittelstandard IFS7 wie folgt definiert:

„Eine Stufe, auf der es möglich und von entscheidender Bedeutung ist, eine Gefahr für die Lebensmittelsicherheit zu verhüten oder auszuschalten oder sie auf ein annehmbares Mas zu verringern.“

IFS7 Standard

CCP im HACCP

Bei der Hazard Analysis and Critical Control Points (Abkürzung HACCP) wird das Produkt, seine Verwendung beschrieben und ein Fließdiagramm erstellt. Dieses Diagramm enthält Informationen über die (Teil-)Prozesse sowie eine eindeutige Zuordnung der CCPs und weiterer Kontrollmaßnahmen, wie z.B. Kontrollpunkte. Dies geschieht mit Hilfe eines Entscheidungsbaumes, der eine logische Begründung darstellt. Für jeden CCP werden kritische Grenzwerte festgelegt, so dass eine eindeutige Unterscheidung zwischen Beherrschung und Nichtbeherrschung eines Prozesses möglich ist. Während der Bewertung vor Ort werden die kritischen Lenkungspunkte und die Kontrollmaßnahmen vom Auditor mit dem HACCP-Plan verglichen. Die folgende Abbildung zeigt die einzelnen Schritte zur Festlegung der CCPs im HACCP-Prozess.

HACCP Grundsätze

CCP in IFS7

Im Lebensmittelstandard IFS7 werden folgende Anforderungen an ein CCP Monitoring gestellt:

Unterschied Kontrollpunkte (CP) und Kritischen Lenkungspunkte (CCP)

Kontrollpunkte (engl. Control Points, abgekürzt CP) sind Punkte im Produktionsprozess, die bei Nichtbeachtung ein Sicherheitsrisiko, aber kein Gesundheitsrisiko darstellen. Tritt letzteres ein, wird der Punkt als CCP definiert. Für einen CP können die gleichen Überwachungsverfahren und -instrumente eingesetzt werden wie für einen CCP.

Erfassung und Monitoring von CCP

Die Überwachung eines CCP ist Aufgabe definierter Verfahren zur Erkennung eines Kontrollverlustes an dieser Stelle. Die Beherrschung des CCP wird durch Aufzeichnungen nachgewiesen. Diese Aufzeichnungen sind über einen angemessenen Zeitraum aufzubewahren (z.B. mindestens das Mindesthaltbarkeitsdatum plus X).

Wenn ein CCP den definierten Raum verlässt, d.h. nicht mehr beherrscht wird, sind entsprechende Korrekturmaßnahmen durchzuführen und zu dokumentieren.

Die Dokumentation kann im einfachsten Fall durch manuelle Aufzeichnung auf einem ausgedruckten Formular erfolgen. Folgende Werte sind aufzuzeichnen

Das Formular sollte Informationen über den CCP, den Ort und eine kurze Anleitung zur Durchführung der Messung enthalten. Die Unterlagen sind vom QM-Beauftragten turnusmäßig einzusammeln und sicher aufzubewahren.

Automatisches Monitoring von CCP

Die manuelle Messung von CCPs ist zeitaufwendig und beinhaltet immer das Risiko eines menschlichen Einflusses. Eine automatisierte Messung kann hier Abhilfe schaffen. Dadurch ergeben sich verschiedene Vorteile:

Für die Umsetzung einer Automatisierung gibt es verschiedene Optionen. In diesem Beitrag finden Sie allgemeine Informationen zur Automatisierung und Digitalisierung manueller Messungen.

Eine kontinuierliche Überwachung des CCP ist durch Automatisierung möglich. Auf diese Weise ist es möglich, direkt im Falle einer Überschreitung oder wenn ein Trend auf eine bevorstehende Überschreitung hindeutet, bereits hinterlegte Korrekturmaßnahmen automatisiert in Gang zu setzen.

Beispiele für kritische Lenkungspunkte (CCP) im HACCP

In der folgenden Tabelle sind Beispiele für Gefahren und dazugehörige CCPs mit Überwachungsverfahren dargestellt.

GefahrCCPManuelle MessungAutomatisierte Messung
Verunreinigung durch UmgebungUmgebungstemperatur /-LuftfeuchtigkeitKalibriertes HandthermometerKalibrierte kombinierte Messfühler
Kontamination mit SalmonellenÜberwachung Erhitzungsdauer und – TemperaturAblesen Temperatur und Stoppen der ZeitÜbertragung Maschinendaten von Steuerung
Verschmutzung des Lebensmittels durch Öl in verwendeter DruckluftÖlgehalt in der verwendeten DruckluftAblesen von MessgerätenÜbertragung von Messdaten des Reinigungssystems
Beispiele für CCPs im HACCP

CCP-Monitoring mit der smartPLAZA

Sowohl das manuelle als auch das automatisierte Monitoring benötigen Unterstützung in Form von Software. Natürlich lässt sich vieles mit Tabellenkalkulationsprogrammen abbilden - aber spätestens bei Fragen der Authentizität von Aufzeichnungen und der Automatisierung von Meldeketten wird es eng. Mit unserer Software smartPLAZA können Sie als Lebensmittelhersteller die Überwachung von CCPs einfach digital abbilden. Für die manuelle Erfassung bietet die Software vorgefertigte Vorlagen, die der Mitarbeiter in der Produktion am Tablet oder Computer ausfüllen kann. Der Mitarbeiter im QM kann die Prüfpläne einfach verwalten und erhält bei Abweichungen automatisch eine E-Mail.

Auch der Zugriff auf Datenquellen wie Sensoren oder Steuerungen ist über Standardschnittstellen möglich. So wird aus der periodischen Überwachung durch den Mitarbeiter eine kontinuierliche Überwachung. Auslöser für die Aktivierung der Meldekette kann nicht nur eine Abweichung sein, sondern bereits ein Trend in Richtung einer Abweichung. Eine Handlungsempfehlung für eine Korrekturmaßnahme kann auch direkt Bestandteil der E-Mail oder SMS sein. Bei Anbindung an die Anlagensteuerung können Korrekturmaßnahmen direkt in der Steuerung erfolgen.

Mit Hilfe von smartPLAZA ist es somit möglich, die Überwachung von CCPs in der Produktion digital abzubilden. Eine zentrale Übersicht der Einzelmesswerte erhöht zudem die Transparenz in der Produktion und zeigt Optimierungspotenziale auf.

Monitoringübersicht für Messmerkmal "Temperatur" in der DatenBerg smartPLAZA

FAQ CCP

Was ist ein Kritischer Lenkungspunkt (CCP)?

Critical Control Points (CCPs) werden im IFS7 wie folgt definiert: „Eine Stufe, auf der es möglich und von entscheidender Bedeutung ist, eine Gefahr für die Lebensmittelsicherheit zu verhüten oder auszuschalten oder sie auf ein annehmbares Mas zu verringern.“

Was ist der Unterschied zwischen einem CP und einem CCP?

Wird ein CCP nicht beherrscht, springt der Wert außerhalb der festgelegten Grenzwerte, besteht eine Gefahr für die Gesundheit des Verbrauchers. Es besteht ein Sicherheitsrisiko, aber kein Gesundheitsrisiko.

Wie definiere ich CCPs?

Im Rahmen der HACCP-Analyse werden die Gefahren im Prozess analysiert und hinsichtlich ihres Risikos bewertet. Stellt eine Gefahr ein Gesundheitsrisiko dar, so ist dafür ein kritischer Lenkungspunkt (CCP) einzurichten. Andernfalls wird die Gefahr durch einen Kontrollpunkt (CP) überwacht.

Quellen

Prozessfähigkeitsindex

Definition von beherrschten Prozesse

Fähigkeitsindizes geben an, wie gut ein Prozess die Anforderungen erfüllt. Dies kann nur beurteilt werden, wenn der Prozess stabil ist. Die Prozessstabilität gibt an, ob ein Prozess als beherrscht oder nicht beherrscht angesehen wird. Ohne Stabilität ist die Betrachtung von Fähigkeitsindizes nicht sinnvoll. Nach ISO 25514 sind Prozesse beherrscht, wenn sich die Merkmalswerte praktisch nicht oder nur in bekannter Weise oder innerhalb bekannter Grenzen ändern. Wenn Zufallsstichproben aus einem beherrschtem Prozess gezogen werden, verhalten sich diese so, als ob sie aus derselben Grundgesamtheit stammen.

Normalverteilte Prozesse

Bei der Berechnung der Prozessfähigkeit wird häufig von normalverteilten Prozessdaten ausgegangen. Daher ein kleiner Exkurs in die Statistik: Bei kontinuierlichen Prozessen können die Merkmalswerte beliebige Werte annehmen. Ein Beispiel ist die Temperatur in einer Maschine. Die Normalverteilung wird durch zwei Kenngrößen bestimmt. Dem arithmetischen Mittelwert und der Standardabweichung. Beide Kenngrößen werden aus einer Stichprobe geschätzt.

In diesem Beitrag werden die in der folgenden Abbildung dargestellten Begriffe verwendet. In einzelnen Normen oder Spezifikationen können die Bezeichnungen der einzelnen Parameter abweichen.

Ist ein Merkmal normalverteilt, kann die Standardabweichung verwendet werden, um abzuschätzen, wieviele Teile innerhalb/außerhalb der spezifizierten Toleranzen liegen. ppm ist die Anzahl der Teile pro Million.

StandardabweichungAnteil innerhalb der ToleranzAnteil Außerhalb der Toleranz
+/- 1sigma68,27 %31,73%
+/- 2sigma95,45 %4,55 %
+/- 3sigma99,73 %0,27 %
+/- 4sigma99 936 ppm63 ppm
+/- 5sigma999 999,43 ppm0,57 ppm
+/- 6sigma999 999 998 ppm0,002 PPM
Auswirkungen verschiedener Standardabweichung

Prozessfähigkeitsindex cp

Der Prozessfähigkeitsindex (engl. Process capability index) gibt die Fähigkeit eines Prozesses an. Er beschreibt, inwieweit ein Prozess geeignet ist, ein Produkt herzustellen, das den Produktanforderungen entspricht. Umgangssprachlich kann man sagen, dass die Prozessfähigkeit angibt, „wie gut der Prozess in die Toleranz passt“. Der Prozessfähigkeitsindex wird auch als „potenzieller Prozessfähigkeitsindex“ bezeichnet. Für die Berechnung des Prozessfähigkeitsindex sind zwei Spezifikationsgrenzen erforderlich, eine untere und eine obere.

Für die Berechnung von cp verwendet die ISO 25514 die Schreibweise des 99,865-%-Quantil, X99,865 % und vom 0,135-%-Quantil, X0,135 %.  Bei einem normalverteilten Messmerkmal kann dies als sechsfache Standardabweichung 6σ, oder 6s, angegeben werden, wenn σ aus einer Stichprobe geschätzt wird.

c_p = \cfrac{OSG - USG }{6\sigma}

Kritische Prozessfähigkeit cpk

Der kleinste Prozessfähigkeitsindex (eng. Minimum process capability index) wird auch als kritischer Prozessfähigkeitsindex bezeichnet. Er gibt das Verhältnis von Toleranz zu Prozessstreuung unter Berücksichtigung der Prozesssituation an. Dieser Index beschreibt die Prozessfähigkeit in Bezug auf die gegebenen Spezifikationsgrenzen.

Die kritische Prozessfähigkeit wird wie folgt berechnet:

c_{pk} = min{(c_{pku},c_{pkl})} \\
c_{pku} = \cfrac{\={x} - USG }{3\sigma} \\ \\ \newline
c_{pkl} = \cfrac{OSG- \={x}}{3\sigma}

Phasen der Prozessqualifikation

Bei der Bewertung der Fähigkeitsindizes können drei Phasen unterschieden werden. Vor Beginn der Serienfertigung ist die Kurzzeitfähigkeit Gegenstand der Prüfung. Hier stehen maschinenbedingte Einflüsse im Vordergrund. Dies kann z.B. bei der Maschinenabnahme erfolgen. Die Voruntersuchung zur Prozessfähigkeit ist eine Untersuchung aller für die Produktion relevanten Einflussgrößen. Die Langzeit-Prozessfähigkeitsuntersuchung ist eine Untersuchung der Einflüsse in der Produktion über einen längeren Zeitraum.

Kurzzeitfähigkeits-untersuchungVorläufige Prozessfähigkeits-untersuchungLangzeitprozess-fähigkeitsuntersuchung
Wann?Vor SerienstartVor SerienstartAnalyse in der Serienproduktion
FähigkeitsindexCmPpCp
Kritischer FähigkeitsindexCmkPpkCpk
Phasen der Prozessfähigkeitsuntersuchung

Beispiel zur Berechnung der kritischen Prozessfähigkeit

  1. Auswahl des Werteverlaufs
    Im ersten Schritt wählen Sie das Messmerkmal aus. In unserem Beispiel ist das Merkmal „Dichte“. Dann selektieren Sie den zu analysierenden Auftrag. Die Schritte werden im Smart Analyzer der smartPLAZA ausgeführt.
  2. Normalverteilungsprüfung
    Nun gilt es zu prüfen, ob das Messmerkmal normalverteilt ist. In der smartPLAZA wird der Test automatisiert durchgeführt. In der Spalte „Normalverteilt“ ist das Ergebnis dargestellt. Ist der Test auf Normalverteilung positiv, kann fortgefahren werden.
  3. Berechnung der Prozessfähigkeit
    Nachdem geprüft wurde, ob eine Normalverteilung vorliegt, wird nun der cpk-Wert berechnet. Dazu sind die oben beschriebenen Formeln zu verwenden. Die Berechnung der Werte erfolgt automatisch in der smartPLAZA.
  4. Prozessbewertung
    Diese Werte können nun mit den Kundenanforderungen verglichen werden, um den Prozess zu bewerten. Liegt der cpk-Wert über der Kundenanforderung, gilt dieser als fähig.

Typische Fragen

Wann ist ein Prozess beherrscht?

Ein Produktionsprozess ist beherrscht, wenn die Verteilung der Merkmalswerte, die sich praktisch nicht oder nur in bekannter Weise oder innerhalb bekannter Grenzen ändert.

Wie prüfe ich Messwerte auf eine Normalverteilung?

Statistische Tests liefern eine analytische Aussage darüber, ob ein Messmerkmal normalverteilt ist. Dazu ist der p-Wert des statistischen Tests zu betrachten. Ist dieser größer als ein vorher definierter Wert (oft p=0,05), wird eine Normalverteilung angenommen. Der Kolmogorov-Smirnov-Test wird z. B. als Test verwendet. Als visuelle Einschätzung kann auch ein Histogramm hilfreich sein. Zur automatisierten Berechnung bietet z.B. smartPLAZA eine automatische Durchführung der statistischen Tests an.

Wie berechne ich eine kritische Prozessfähigkeit, wenn die Toleranzmitte nicht dem Soll-Wert entspricht?

Hier empfiehlt die DIN ISO 22514, die oberen und unteren Prozessfähigkeitsindizes getrennt zu berechnen und zu betrachten. Dabei soll nicht nur der kleinere Wert als kritischer Index angegeben werden. Für beide Werte können jedoch unterschiedliche Anforderungen gelten.

Wie berechne ich einen Prozessfähigkeitsindex bei einseitig tolerierten Merkmalen?

Liegt nur eine (obere oder untere) Spezifikationsgrenze vor, werden die Indizes wie oben beschrieben berechnet. Für die Angabe der kritischen Prozessfähigkeitsindizes wird jedoch kein Minimum aus den Werten der oberen und unteren Spezifikationsgrenze gebildet, sondern nur ein Wert angegeben.

Wie interpretieren ich den Prozessfähigkeitsindex und den kritischen Proessfähigkeitsindex?

Beide Werte, Prozessfähigkeit cp und kritische Prozessfähigkeit cpk, sollten immer zusammen analysiert werden. Ist der cp-Wert wesentlich größer als der cpk-Wert, deutet dies auf ein Optimierungspotenzial im Prozess hin. Ein cpk-Wert größer als 1,33 wird im Allgemeinen als sicher angesehen. Individuelle Grenzwerte sind jedoch mit dem Kunden abzustimmen.

Referenzen

Standardnorm für Fragen zu Prozessfähigkeitsindizes: DIN ISO 22514-1:2016-08 hier zu finden

Handbuch für SPC: Statistical Process Control (SPC-3) der Automotive Industry Action Group AIAG hier zu finden

Wissen

Hier werden alle Wissensbeiträge zu den Themen Daten nutzen, Industrie 4.0 und statistischen Kennzahlen im Produktionsumfeld gelistet.

Nelson Regeln (eng. Nelson Rules)

Herkunft

Die Nelson-Regeln sind ein Satz von acht statistischen Qualitätskontrollregeln, die zur Erkennung von abweichenden oder ungewöhnlichen Datenpunkten in einer Prozessregelkarte verwendet werden. Der Regelsatz wurden in den 1950er Jahren von ihrem Namensgeber Edward Nelson entwickelt und sind in der statistischen Prozesskontrolle (SPC) weit verbreitet. Mit ihrer Hilfe kann festgestellt werden, wann in einem Prozess eine Abweichung mit einer bestimmten Ursache auftritt. Dies kann ein Hinweis darauf sein, dass der Prozess außer Kontrolle geraten ist oder dass ein Problem vorliegt, das gelöst werden muss.

Übersicht: Die acht Nelson Regeln

Die acht Nelson-Regeln sind wie folgt definiert.

  1. Datenpunkte, die vom Mittelwert der angezeigten Datenreihe mehr als drei Standardabweichungen entfernt sind.
  2. Neun (oder mehr) aufeinanderfolgende Punkte liegen auf derselben Seite des Mittelwerts.
  3. Sechs (oder mehr) aufeinanderfolgende Punkte sind aufsteigend (bzw. absteigend).
  4. Vierzehn (oder mehr) aufeinanderfolgende Punkte alternieren zwischen auf- und absteigend.
  5. Zwei (oder drei) von drei aufeinanderfolgenden Punkten liegen mehr als zwei Standardabweichungen in gleicher Richtung vom Mittelwert entfernt.
  6. Vier (oder fünf) von fünf aufeinanderfolgenden Punkten liegen mehr als eine Standardabweichung in gleicher Richtung vom Mittelwert entfernt.
  7. Fünfzehn (oder mehr) aufeinanderfolgende Punkte liegen innerhalb eine Standardabweichung vom Mittelwert entfernt.
  8. Acht (oder mehr) aufeinanderfolgende Punkte liegen mehr als eine Standardabweichung in beiden Richtungen vom Mittelwert entfernt.

Wird eine der Regeln erfüllt, deutet dies auf ein abnormales Prozessverhalten hin.

Anwendung in der Fertigung

Wenn ein Datenpunkt gegen eine dieser Regeln verstößt, kann dies ein Hinweis darauf sein, dass es ein Problem mit dem Prozess gibt, das untersucht werden muss. Es ist jedoch wichtig zu beachten, dass nicht alle abweichenden Datenpunkte zwangsläufig durch ein Problem verursacht wurden. Es ist wichtig, jeden Datenpunkt zu untersuchen, um festzustellen, ob es sich um einen legitimen Ausreißer handelt oder ob es eine andere Erklärung für das Ereignis gibt. Die Nelson-Regeln sind jedoch eine gute Möglichkeit den Produktionsprozess automatisiert zu überwachen.

Nelson Regeln in der DatenBerg smartPLAZA

Die acht Nelson-Rules sind in der smartPLAZA standardmäßig hinterlegt. In der Analyse werden die gefilterten Daten automatisiert gegen die Regeln abgeprüft. Die erkannten Regeln können einfach visuell eingeblendet werden. Im folgenden Screenshot sind zum Beispiel die Bereiche rot markiert, an denen die Nelson Rule 2 angeschlagen hat. Neben der reinen visuellen Analyse können die Nelson-Rules auch im Monitoring verwendet werden. Sobald eine Nelson-Rule aktiviert wird, kann zum Beispiel eine E-Mail getriggert werden.

Nelson-Rules Chart in der smartPLAZA

Individuelle Regeln anpassen

Die Nelson-Rules decken verschiedene Szenarien in der Produktion ab. Jede Produktion ist jedoch anders und dadurch können unter Umständen zu oft oder zu wenig die Nelson-Rules getriggert werden. Daher kann es Sinn ergeben, die Nelson-Rules abzuändern. Hierzu können die gleichen statistischen Grundlagen wie bei den Nelson-Regeln verwendet werden. Die individuelle Anpassung kann zum Beispiel vor der Einführung einer Monitoring-Lösung wie der DatenBerg smartPLAZA passieren. In der smartPLAZA können Sie individuelle Regeln auf Basis der Nelson-Rules definieren.

FAQ Nelson Regeln

Wie viele Nelson-Rules gibt es?

Es gibt standardmäßig 8 Nelson-Rules. Diese können jedoch um unternehmensspezifische Regeln erweitert werden. Es müssen für einen Fertigungsprozess auch nicht alle Nelson-Rules eingesetzt werden.

Sind Nelson-Regeln in allen Industrien einsetzbar?

Die Nelson-Regeln sind nicht industriespezifisch aufgebaut. Im Prinzip sind diese auf alle Produktionsprozesse anwendbar. Es kann jedoch Sinn ergeben, die Regeln auf den jeweiligen Fertigungsprozess anzupassen, um keine falschen Alarme zu triggern. Denn die Regeln werden im Normalfall in eine Meldekette eingebunden und diese soll nur aktiviert werden, wenn wirklich eine Auffälligkeit an der Anlage vorliegt.

Was benötige ich, um die Nelson-Regeln einzusetzen?

Nelson-Regeln benötigen Daten, um zu funktionieren. Analog erfasste und manuell notierte Daten sind schwierig automatisiert auszuwerten mit Nelson-Regeln. Liegen die Daten in einem Tabellenkalkulationsprogramm vor, können die Regeln leichter abgeprüft werden. Soll der ganze Prozess mit Überwachung und Meldekette umgesetzt werden, bietet sich eine Software wie die DatenBerg smartPLAZA an.

Molkerei Industrie: Digitale Transformation einer Käserei

Über den Artikel

Gemeinsam mit dem chilenischen Premium-Käsehersteller Lactéos Matthei haben wir über die ersten Schritte der Käserei in Richtung Digitale Transformation in der Fachzeitschrift "Molkerei Industrie" berichtet. Dabei geht es über die Motivation sowie die technische Umsetzung einer datenbasierten Prozessabsicherung.

Artikel

IEC: Dynamische Messreduktion mit Künstlicher Intelligenz

Über die Veröffentlichung

Auf der International Elastomer Conference in 2021 hielt Maximilian Backenstos einen Vortrag über "Using AI for Dynamic Reduction of Rheological Measurement Frequency". Dabei ging es in der gemeinsamen Veröffentlichung mit HEXPOL Compounding, um die Fragestellung, wie serienbegleitende Prüfungen im Mischsaal reduziert werden können. Lesen Sie im Paper über den Ansatz und die erzielte Ergebnisse von 70% Einsparungen mit Hilfe von der Dynamischen Messreduktion.

Veröffentlichung

Gummi Fasern Kunststoffe: Dynamisch messen im Mischsaal

Beschreibung

Serienbegleitende Prüfungen erfordern viel Aufwand. Wie kann dieser reduziert und gleichzeitig der Prozess abgesichert werden? Im Fachbeitrag "Rheologische Messfrequenz mit Künstlicher Intelligenz dynamisch reduzieren" in der Fachzeitschrift GAK - Gummi Fasern Kunststoffe haben wir gemeinsam mit unserem Kunden HEXPOL Compounding über die Anwendung im Mischsaal berichtet. Hier konnten im Schnitt 70% der Messungen reduziert werden. Lesen Sie selbst mehr im Fachbeitrag.

Beitrag

Fachbeiträge

Hier werden aktuelle Fachbeiträge der DatenBerg GmbH gelistet.

Dynamische Messreduktion

Was ist eine dynamische Messreduktion?

Die dynamische Messreduzierung ist eine Methode, um die Anzahl der serienbegleitenden Prüfungen zu reduzieren. Die Prüfhäufigkeit wird dabei durch den Produktionsprozess selbst bestimmt. Die dynamische Messreduktion basiert auf dem Prinzip, dass Schwankungen im Produktionsprozess für Schwankungen in der Qualität verantwortlich sind. Die Prüfhäufigkeit passt sich der jeweiligen Situation an. Es wird also nur dann gemessen, wenn es notwendig ist.

Überblick über die Stufen der dynamischen Messreduktion

Es gibt verschiedene Stufen von dynamischen Messreduktionsverfahren, die einzeln und kombiniert eingesetzt werden können. In der Praxis bietet es sich oft an, die einzelnen Methoden miteinander zu verknüpfen, um die Prozessfähigkeit sicherzustellen. Die vier Grundstufen sind:

Bausteine Sie für eine dynamische Messreduktion

Wie profitiert eine Produktion von einer dynamischen Messreduktion?

Die Vorteile der dynamischen Messreduzierung sind vielfältig. Insgesamt lassen sie sich in vier Kategorien einteilen:

Praxisbeispiel: 70% Prüfreduktion in der Gummimischungsherstellung

Gummimischungen werden im Batch-Verfahren hergestellt. Die Qualität wird anschließend mit einem Rheometer überprüft. Typische Zykluszeiten sind drei Minuten, sowohl für den Mischer als auch für das Rheometer. Jede Probenvorbereitung inklusive Material kostet etwa 2 €. Im Normalbetrieb wird von jeder Charge eine Probe entnommen, um die Qualität der Mischung zu charakterisieren. Pro Monat fallen bei einer vollausgelasteten Linie etwa 9.600 Stichproben an. Dies verursacht sowohl Kosten als auch Stress für den Bediener, der oft mehrere Linien parallel bedienen muss.

Mit Hilfe der dynamischen Messreduktion können die Prüfkosten reduziert und gleichzeitig der Anlagenfahrer entlastet werden. In einer Implementierung konnte ein Kunde durchschnittlich 70% der Prüfungen einsparen. Dabei wurde sowohl die Szenario basierte als auch die prädiktive Messreduktion eingesetzt, um eine maximale Prozesssicherheit zu gewährleisten.

Manuelle Messungen digitalisieren und automatisieren

Was sind Herausforderungen bei händisch erfassten Messwerten?

Zur Dokumentation von Prozessen werden Messungen relevanter Produktionsparameter durchgeführt. Zertifizierungen wie z.B. im Lebensmittelbereich IFS oder Global Manufacturing Foods stellen verschiedene Anforderungen an die Aufzeichnungen. Diese müssen lesbar und authentisch sein, d.h. es muss klar sein, wer die Aufzeichnungen gemacht hat. Des Weiteren muss eine nachträgliche Korrektur ausgeschlossen sein bzw. darf nur von autorisiertem Personal vorgenommen werden können. Werden Aufzeichnungen manuell oder in Tabellenkalkulationsprogrammen geführt, sind sie oft nur schwer durchsuchbar. Spätere Auswertungen sind dann nur mit manuellem Aufwand möglich. Die händische Dokumentation ist zudem fehleranfällig, so ist z.B. schnell ein Komma an der falschen Stelle gesetzt oder der Messwert am Prüfgerät falsch abgelesen. Darüber hinaus bindet die Dokumentation Arbeitszeit des Mitarbeiters und hält ihn von wertschöpfenden Tätigkeiten ab.

Manuelle Messungen digitalisieren und automatisieren - Eine Anleitung

Für die Digitalisierung bzw. Automatisierung manueller Messungen gibt es zwei unterschiedliche Ausgangspunkte:

Im ersten Fall „Händische Messung“ ist es sinnvoll, dem Mitarbeiter anstelle von Papier oder Tabellenkalkulationsprogramm eine digitale Möglichkeit zur Dokumentation der Information zur Verfügung zu stellen. In der Regel handelt es sich dabei um eine Webanwendung, die auf verschiedenen mobilen Endgeräten oder Workstations im Browser geöffnet werden kann. Es kann direkt überprüft werden, ob der Messwert innerhalb der hinterlegten Spezifikationsgrenzen liegt. Die Übertragung kann auch über Messmittelboxen oder eine direkte Kommunikation mit dem Prüfgerät erfolgen. Die nächste Ausbaustufe wäre die Automatisierung des Messvorgangs. Anstelle eines manuellen Messsystems werden fest installierte Sensoren verwendet, die den Messwert kontinuierlich überwachen. Die Erfassung und Speicherung der Sensorsignale kann über einen Datenlogger oder über eine Steuerung erfolgen.

Im zweiten Fall „Digitale Werte ablesen“ werden die relevanten Parameter direkt abgerufen und zentral gespeichert. Die möglichen Schnittstellen sind vielfältig. Üblich ist die Möglichkeit des Auslesens der relevanten Messwerte über das Protokoll OPC UA. Dadurch entfällt der Weg zur Anlage. Die Daten können in kürzeren Intervallen überwacht und automatisiert ausgewertet werden.

4 Stufen-Modell Datenaufnahme

Die Erfassung von Prozessparametern lässt sich in vier Schritte einteilen. In einem Assessment können die erforderlichen Messungen in einer Produktion in die vier Stufen eingeteilt werden und davon ausgehend Verbesserungspotenziale identifiziert werden. Hier sind die vier Stufen gelistet:

Wie profitiert die Produktion hiervon?

Wenn manuelle Messungen digitalisiert und automatisiert werden, wird wird in erster Linie das Personal entlastet. Statt Werte manuell abzulesen und zu dokumentieren, wird der Dokumentationsaufwand weitgehend automatisiert. Dadurch kann der Fokus auf wertschöpfende Tätigkeiten gelegt werden. Gleichzeitig werden manuelle Fehler durch falsches Ablesen oder unleserliche Handschriften vermieden.

Auch die Auswertung wird durch standardisierte Berichte vereinfacht. So kann für Audits einfach der relevante Zeitraum ausgewählt und als Report ausgegeben werden. Ebenso kann durch die Automatisierung bzw. Digitalisierung sichergestellt werden, wer Änderungen an den Daten vornehmen kann.

Durch kürzere Dokumentationsintervalle können Trends und Abweichungen frühzeitig erkannt werden. So kann proaktiv in den Prozess eingegriffen werden, bevor es möglicherweise zu spät ist und der Prozess aus einem sicheren Fenster läuft. Mit einem solchen Frühwarnsystem wird die Überwachung automatisiert.

Last but not least - durch die digitale Speicherung werden die Datenmengen auch durchsuchbar und auswertbar. So können Vergleiche über die Zeit oder zwischen verschiedenen Maschinen angestellt werden. Dadurch können Optimierungspotenziale erschlossen werden.

Bausteine zur Automatisierung von manuellen Messungen

Um Auch in Ihrer Produktion Manuelle Messungen digitalisieren und automatisieren zu können, bieten wir Softwarelösungen an. Für diesen Anwendungsfall benötigen Sie die folgenden Bausteine unserer Software:

Reales Fallbeispiel: Temperaturmonitoring in der Schokoladenproduktion

Eine Schokoladenproduktion ist nach IFS7 für Lebensmittelhersteller zertifiziert. Dazu ist es unter anderem notwendig, die Temperatur- und Feuchtewerte an definierten Messpunkten in der Produktion und im Lager zu überwachen. Dies wurde einmal pro Schicht von einem Mitarbeiter durchgeführt. Dazu wurde ein tragbares Thermometer verwendet. An jeder Messstelle wurden drei Stichproben genommen. Der Mittelwert wurde handschriftlich in ein ausgedrucktes Formular eingetragen. Pro Schicht benötigte ein Mitarbeiter ca. 30 min für die Dokumentation der Werte. Dazu musste das Qualitätsmanagement einmal wöchentlich die Zettel einsammeln, neue ausdrucken und die Aufzeichnungen in Excel auswerten. Für den Schokoladenproduzenten stellte sich die Frage, wie die manuelle Messung digitalisiert und automatisiert werden kann.

Gemeinsam mit den Experten von DatenBerg wurde ein automatisiertes Sensorsystem mit integriertem Datenlogging als Lösung avisiert. Dazu wurde ein Sensorsystem angeschafft, welches die Temperatur und Luftfeuchtigkeit misst. Hierfür wurde ein IO-Link System gewählt, da dieses keine Programmierung (im Gegensatz zu einer SPS) benötigt. Die Sensoren sind über 3-Draht-Kabel mit einem IO-Link-Master verbunden. Der Master überträgt die Signale einmal alle 10 Minuten an die DatenBerg Software smartPLAZA. Diese speichert die Messwerte und prüft, ob Spezifikationsgrenzen verletzt werden. Sollte dies der Fall sein, wird sofort eine E-Mail an das QM und die Werksleitung gesendet. Ein Dashboard visualisiert bei einem Audit schnell den betroffenen Zeitraum und zeigt die Übereinstimmung mit den Prozessfenstern.

Die Sensoren sind aber nicht nur für die Dokumentation gut! Zukünftig sollen die Temperatursensoren auch für eine automatisierte Regelung der Kühlaggregate eingesetzt werden.

Maschinen- und Prozessdaten abspeichern

Maschinen- und Prozessdaten abspeichern - Warum?

Produktionsmaschinen erfassen eine Vielzahl von Sensordaten, die häufig direkt an der Anlage auf einem Display visualisiert werden. Je nach Zertifizierung der Produktion müssen bestimmte Datenpunkte zu Dokumentationszwecken gespeichert werden. Häufig geschieht dies direkt an der Steuerung, wo ein Datenlogger die Daten aufzeichnet. Somit bleibt für die Auswertung und Analyse der Weg zur Anlage, wo die Daten abgeholt werden. Dies macht eine zeitnahe Auswertung nahezu unmöglich. Was typische Prozessdaten in der Produktion sind, haben wir hier beschrieben.

Einzelne Anlagenhersteller bieten zwar eine Webvisualisierung an, diese ist aber oft nicht sehr ausgereift. Zudem wird für jede Anlage eine eigene Applikation benötigt, was die Kosten stark erhöht und die Übersichtlichkeit verringert.

Wie können Maschinen- und Prozessdaten abgespeichert werden?

Als Übersicht bieten sich vier Schritte an:

  1. Anbindung an ein Maschinennetzwerk
  2. Definition der Schnittstelle
  3. Anbindung an zentrales Monitoringsystem (z.B. smartPLAZA)
  4. Festlegung des Monitoring und Analyse der Daten

Um eine einheitliche Übersicht zu schaffen, werden in einem ersten Schritt die relevanten Maschinen über Ethernetkabel zu einem sogenannten „Maschinennetzwerk“ verbunden. Damit ist die physikalische Verbindung bereits hergestellt. Anschließend muss für jede Anlage geklärt werden, welche Schnittstelle zur Verfügung steht. Neuere Anlagen sind häufig mit der Standardschnittstelle OPC UA ausgestattet. Damit können Parameter abgefragt und auch zurückgeschrieben werden. Ist bereits eine Webvisualisierung vorhanden, können die Daten oft auch hier abgerufen werden. Mit der DatenBerg smartPLAZA werden verschiedene Standardschnittstellen mitgeliefert, die einen schnellen Zugriff auf Maschinensteuerungen ermöglichen.

Nach Auswahl der Schnittstelle werden die Daten in einem festen Intervall abgefragt. Typische Zeitintervalle für kritische Prozesse reichen von 1 / s bis zu Intervallen von mehreren Minuten. Alternativ kann auch nur bei veränderlichen Signalen aufgezeichnet werden.

Danach werden alle ausgewählten Parameter in einer Datenbank gespeichert. Hier findet dann eine Visualisierung und das Monitoring statt. Ebenso können die Daten über einen historischen Zeitraum analysiert und anderen Tabellen verknüpft werden.

Was ist der Mehrwert der zentralen Speicherung?

Durch die zentrale Speicherung stehen alle relevanten Informationen zentral zur Verfügung - egal ob auf dem Laptop oder dem Tablet. Dadurch ist die Informationen ortsunabhängig zugreifbar. Die Datenpunkte sind dauerhaft und sicher gespeichert. Das manuelle Sammeln der Daten auf einem USB-Stick entfällt.

Auch anlagenübergreifende Analysen lassen sich mit einem zentralen System wie dem DatenBerg smartPLAZA durchführen. Auf diese Weise können Engpässe einfacher erkannt und die Planung von Verbesserungsmaßnahmen gezielter durchgeführt werden.

Aber nicht nur Analysen und Monitoring sind möglich. Definierte Abläufe können auch per Fernzugriff an der Maschine eingestellt werden. Beispielsweise können über OPC UA Fehlermeldungen quittiert oder Sollparameter neu eingestellt werden.

Bausteine für das Speichern von Maschinen- und Prozessdaten

Reales Fallbeispiel: Füllstandsmessung von Rohstoffen

Reales Beispiel: Füllstandsmessung von Rohstoffen

In einer Lebensmittelproduktion werden Rohstoffe als Schüttgut in Silos gelagert. Der Füllstand wird über Sensoren gemessen und über eine SPS (Siemens S7-1200) abgefragt. Diese stellt den Füllstand auf einem Display direkt an den Silos zur Verfügung. Unser Kunde wollte den Füllstand aber auch aus der Ferne visualisieren können.

Als Lösung haben wir den OPC UA Server auf der S7-1200 aktiviert und die Steuerung über ein LAN-Kabel in das Maschinennetzwerk eingebunden. Dadurch werden die Füllstände freigegeben. Mit Hilfe des DatenBerg Gateways können die Sensordaten dann sicher abgerufen werden. Unsere Software smartPLAZA speichert diese und visualisiert die Werte auf einem Dashboard. Ergänzend werden die Füllstanddaten einmal wöchentlich mit unserer Reportfunktion ausgewertet und der Wochenverbrauch pro Silo berechnet. Diese können mit den berechneten Verbräuchen aus dem ERP-System verglichen werden, um Ausschuss sichtbar zu machen.

Automatisches Prozessmonitoring

Wieso ein automatisches Prozessmonitoring?

Das automatische Prozessmonitoring ist relevant für die Erfüllung von Standards, wie dem IFS im Lebensmittelbereich. Dabei wird verlangt, dass die Überwachung von kritischen Parametern von einer verantwortlichen Person des Unternehmens überprüft und für einen zu definierenden Zeitraum aufbewahrt werden. Dies bedeutet, dass Überschreitungen von Grenzwerten dokumentiert und gerechtfertigt werden müssen. Das manuelle Aufbereiten von solchen Auswertungen in Tabellenkalkulationsprogrammen ist aufwändig und findet oft mit einem großen Zeitversatz zur Datenaufnahme statt. So werden Personalkapazitäten gebunden und die Daten erst angeschaut, wenn es eigentlich schon zu spät ist. Die stets ansteigende Zahl an möglichen Überwachungspunkten erschwert die manuelle Analyse weiterhin.

Was ist ein automatisches Prozessmonitoring?

Bei einem automatischen Prozessmonitoring werden die aufgenommenen Messwerte gegen hinterlegte Spezifikationsgrenzen oder Toleranzgrenzen abgeprüft. Überschreitet ein Messwert eine Grenze wird eine Aktion, wie zum Beispiel der Versand einer E-Mail oder einer SMS getriggert.

Wo kann die automatisierte Überwachung im operativen Tagesgeschäft konkret unterstützen? Hier ist ein Auszug der Möglichkeiten:

Was sind die Mehrwerte?

Anlagen in der Produktion erzeugen immer mehr Daten. Daten sind aber nicht direkt nützliche Informationen. Um von den Messwerten zu einer Entscheidung zu gelangen, bedarf es immer einer Interpretation. Fehlen den Mitarbeitern die Erfahrung oder schlicht die Zeit zur Analyse, können unerwünschte Ereignisse unentdeckt bleiben. Hier unterstützt eine automatische Anlagenüberwachung. Diese überwacht nach der Installation die Anlage rund um die Uhr und erkennt relevante Ereignisse. Die Überwachung ist auch eine Unterstützung beim Thema Transparenz, so können Fehleranalysen auf Zahlen, Daten, Fakten zurückgeführt werden.

Auch die Überwachung von Betriebsmitteln ist für die Instandhaltung möglich. Dies erspart es, vor Ort zu gehen, sondern wird nur dann alarmiert, wenn an der Anlage relevante Ereignisse auftreten.

Monitoring Möglichkeiten

In der Produktion sind typischerweise folgende Überwachungsarten relevant

Daneben können zum Beispiel Benachrichtigungen eingerichtet werden, wenn eine Nelson Rule im Messwertverlauf detektiert wird.

Welche Auffälligkeiten können erkannt werden? Trends, Anomalien, Prozesseingriffe und Toleranzüberschreitungen.

Funktion des automatischen Prozessmonitoring

In unserer Software smartPLAZA wird ein automatisches Prozessmonitoring zentral für die ganze Produktion angelegt und verwaltet. Dazu durchläuft man folgende Schritte:

  1. Selektion der zu überwachenden Messwerten: Welche Messwerte sollen überwacht werden? Gibt es Anlagenzustände die nicht überwacht werden sollen (z.B. Rüsten)?
  2. Konfiguration der Überwachungsart: Nach was für Mustern (Trends / Anomalie / Eingriffe / Toleranzgrenzen/Nelson Rules) soll überwacht werden?
  3. Konfiguration der Benachrichtigung: An wen soll die Nachricht gesendet werden (z.B. per E-Mail oder SMS)?
  4. Individuelle Benachrichtigungen: Soll dem Mitarbeiter eine Handlungsempfehlung mitgegeben werden? Dann wird diese hier hinzugefügt.
  5. Live-Schaltung: Geschafft - Ihre Anlage ist nun 24/7 automatisiert überwacht.

Bausteine für eine automatisierte Prozessüberwachung

Anwendungsfälle für eine automatisierte Prozessüberwachung

Wo kann ein automatisches Prozessmonitoring im operativen Tagesgeschäft unterstützen? Hier ist ein Auszug der Möglichkeiten:

Tabellen Labels zuweisen

Funktionsweise

Existieren mehrere Tabellen in der smartPLAZA kann es sinnvoll sein, dass manche Tabellen Gruppen zugeordnert werden. Dies geschieht über sogenannte "Labels". Ein Label kann "Halle 1", "Compoundierung" oder "Abteilung B" sein. So können Analysen schneller stattfinden. Dazu wird einer Tabellen ein "Label" unter Datenquellen zugewiesen. Dies ist ein Freitext, nachdem später in der Analyse und weiteren Filtermasken selektiert werden kann.

Anleitung

Schritt 01: Datenquellen auswählen

Schritt 02: Label zuweisen

Schritt 03: Mit Labels in der Analyse arbeiten

Aktualisierung von Datenquellen

Funktionsweise

Datenquellen können nach ihrer Erstellung automatisch neu geladen werden. Dazu können verschiedene Intervalle definiert werden. Diese Option sollte gewählt werden, wenn die Datenstruktur überprüft wurde. Die manuelle Aktualisierung ist ebenfalls über die Funktion "Daten nachladen" möglich. Dies bietet sich zu Beginn der Integration einer neuen Datenquelle zur Überprüfung der Funktionalität an.

Anleitung Automatische Aktualisierung

Hinweis: Nur verfügbar für Datenquellen, die über eine ODBC-Verbindung angelegt wurden oder über einen DatenBerg Gateway bzw. die REST-API in die Software schreiben. Bei .csv-Dateien können daten händisch nachgeladen werden.

Schritt 01: Datenquelle auswählen

Schritt 02: Aktualisierungsverhalten einstellen

Im rechten Bearbeitungsfenster finden Sie im Drop-Down-Menü "Daten automatisch aktualisieren" die Möglichkeit, die Daten in Echtzeit (d.h. sekündlich), minütlich oder stündlich abzurufen. Zwischenzeitlich hinzugekommene Daten werden dann abgerufen.

Anleitung Daten manuell nachladen

Schritt 01: Datenquelle auswählen

Schritt 02: Daten nachladen

Klicken Sie in der oberen Menüleiste auf die Schaltfläche "Daten laden". Wenn die Datenquelle auf einer .csv-Datei basiert, öffnet sich ein Fenster, in dem Sie die Datei auswählen können. Nach der Auswahl und einem Klick auf "Daten laden" werden die neuen Zeilen hinzugefügt. Basiert die Datenquelle auf einer ODBC-Verbindung (SQL-Datenbank), werden die neu verfügbaren Daten direkt nachgeladen.

Berechnete Spalten hinzufügen

Funktionsweise einer berechneten Spalte

Eine berechnete Spalte führt eine Berechnung nach einer definierten Vorgabe durch. Die Berechnung wird historisch für eine ganze Tabelle ausgeführt, sobald eine neue Zeile hinzugefügt wird, wird die Berechnung erneut ausgeführt. Es können sowohl Meta-Attribute als auch Messwerte berechnet werden - beide Spaltentypen können in der Analyse und Visualisierung wie gewohnt behandelt werden. Bei Veränderung einer Berechnungsvorschrift wird die gesamte historische Tabelle ebenfalls aktualisiert.

Anleitung zur Berechnung einer Spalte

Schritt 01: Datenquelle auswählen

Schritt 02: Neue Spalte hinzufügen

Schritt 03: Berechnungsvorschrift hinzufügen

Datentypen zuweisen

Verfügbare Rollen

Jedem Messmerkmal muss eine Rolle zugewiesen werden. In der folgenden Tabelle sind die verfügbaren Rollen aufgelistet.

RolleBeschreibungBeispiel
Meta-AttributBeschreibt Messwerte und kann zum Filtern / Annotieren / Gruppieren von Messwerten verwendet werden.Schicht
MesswertBeinhaltet die gemessenen Werte.Temperatur
BezugsgrenzeObere oder untere Toleranz für einen Messwert oder Soll-Wert Vorgabe. Obere Spezifikationsgrenze
Berechnete SpalteBerechnet aus einer oder mehreren Spalten einen Messwert oder ein Meta-Attribut.Delta zwischen zwei Zeitangaben
Versteckte SpalteWird in der smartPLAZA ausgeblendet.Datenbankinterne IDs
Übersicht über Rollen

Anleitung zum Zuweisen einer Rolle

Schritt 01: Datenquelle auswählen

Schritt 02: Messmerkmal überprüfen und korrigieren

Sie sehen nun die Übersicht aller existierenden Spalten in der Tabelle. Mit der dem eingefärbten Punkt vor der Spalte erkennen Sie die gewählte Zuordnung.

Schritt 03: Zuordnung verändern

Auswählen des Merkmals durch Klick auf den Namen. Im rechten Bearbeitungsfenster ist nun der Merkmalsname zu sehen.
Wählen Sie die korrekte Rolle im Drop-Down Menü mit der Bezeichnung "Rolle" aus. Nach Auswahl wir die Rolle direkt zugewiesen.

X-Achse im Liniendiagramm verändern

X-Achse verändern

In der rechten Ecke unter dem Liniendiagramm finden Sie ein Dropdown Menü. Hier können Sie verschiedene Meta-Attribute als X-Achse wählen.

X-Achse bei gruppierten Ansichten verändern

Wenn Sie einen Messwert nach einem Meta-Attribut (z.B. Anlage) gruppiert haben, können Sie den Messwert wieder auf eine andere X-Achse als die Gruppe legen. Damit können Sie zum Beispiel den Verlauf der Temperatur an verschiedenen Hallenpositionen miteinander vergleichen.

Korrelationsansicht von Messwertverläufen

Erklärung der Korrelation

Eine Korrelation gibt die Stärke eines statistischen Zusammenhangs zwischen zwei Variablen an. Bei einer positiven Korrelation gilt „je mehr Variable A… desto mehr Variable B“ oder umgekehrt, bei einer negativen Korrelation gilt „je mehr Variable A… desto weniger Variable B“ oder umgekehrt (Quelle Statista).

In der smartPLAZA verwenden wir die Pearson Korrelation.

Anleitung

Schritt 01: Eine Analyse mit zwei Messmerkmalen öffnen

Schritt 02: Matrix anzeigen

Messmerkmale annotieren

Funktionsweise Merkmale annotieren

Das Annotieren von (Mess-)Merkmalen hilft dem Werteverlauf Kontext zu geben. Zum Beispiel hilft es den Verlauf einzelnen Aufträgen, Schichten oder Chargen zuzuordnen. Dabei wird ein Meta-Attribut selektiert. Jedem Wert des Meta-Attributes wird eine Farbe zugeordnet. In der folgenden Abbildung ist das Messmerkmal "Dichte" dargestellt und mit dem Meta-Attribut "Schicht" annotiert. Jede Farbe entspricht einer Schicht.

Schritt 01: Messmerkmal einblenden in der Analyse

Schritt 02: Meta-Attribut in den Arbeitsbereich ziehen

Schritt 03: Einstellungen für die Annotation vornehmen

Ergebnis

Das Messmerkmal ist gruppiert dargestellt. Die Statistiken werden pro Ausprägung des Meta-Attributes berechnet.

Übersicht Statistikbereich

Statistik

Unter dem Reiter Statistik finden Sie eine statistische Auswertung der Messmerkmale die im Analysediagramm angezeigt werden. Werden die Cpk-Werte bei Ihnen nicht angezeigt, sind keine Toleranzgrenzen hinterlegt.

Über eine Klick auf das "Augen-Symbol"  können Sie jeweiligen statistischen Werte im Diagramm anzeigen. Fahren Sie über das Auge, so erscheint eine Farbpalette um die Farbe im Liniendiagramm anzupassen. Das "geöffnete Auge"  zeigt, dass der Parameter aktuell im Diagramm angezeigt wird.

Matrix

Neben dem Statistikbereich finden Sie die Matrix- Funktion. Diese hilft bei der Korrelationsanalyse, der typischen Differenz (RMSE) und der durchschnittlichen Differenz. 

Durch Klick auf den jeweiligen Wert der Korrelation zweier Werte wird die Verteilung der Werte in einer Punktewolke visualisiert. 

Details

Unter dem Reiter Details, finden Sie Informationen zum jeweilig ausgewählten Wert. Hier kann der Wert auch direkt angepasst werden. 

Werden mehrere Messmerkmale im Diagramm angezeigt, steht die Funktion Details nicht zur Verfügung.

Kommentare

Unter Kommentare können Aufzeigungen und Bilder hinterlegt werden.

Die Funktion steht nur zur Verfügung wenn lediglich ein einziges Messmerkmal ausgewählt ist.

Datenqualität

Unter Datenqualität kann die Analyse hinsichtlich Ausreißer- oder Sprungerkennung und Signalfilterung angepasst werden.

Neue Analyse

Die Option Neue Analyse öffnet ein neues Fenster um eine Detailanalyse eines Messmerkmals durchführen zu können.

Einstellungsübersicht

Navigation zu Einstellungen

In die Einstellungen gelangen Sie über das Iconin der linken, unteren Ecke der Software.

Hier finden Sie eine Übersicht über die möglichen Einstellungen.

Einstellungsmöglichkeiten

BereichBeschreibung
BenutzerUnter dem Stichwort Benutzer können Sie die aktuellen Benutzer verwalten, sowie neue Benutzer hinzufügen. Hier finden Sie auch die Optionen eine Benutzerpasswort zu ändern oder zurückzusetzen.
Wenn Sie in Ihrem Lizenz Paket OAuth gewählt haben können Sie dies hier konfigurieren und anpassen.
BackupUnter Backup können neue Backups erstellt werden oder Daten aus einem bestehenden Backup wiederhergestellt werden.
AnzeigeDie Option Anzeige ermöglicht die Änderung der verwendeten Dezimaltrennzeichen, sowie die Auswahl der Programmsprache.
KontingenteDie Verwaltung und Begrenzung der Anzahl der aktiven Dashboards und Pipelines finden die unter Kontingente.
Die Begrenzung der Kontingente ist ein nützliches Hilfsmittel zur Kostenregulierung: Ist die Anzahl der gewählten Kontingente erreicht, können keinen weiteren Dashboards/ Pipelines veröffentlicht werden und so die Kosten gedeckelt werden. 
KeysIn der Einstellungsoption Keys können aktuell verwendetet Keys eingesehen und zurückgesetzt werden.
Über DatenBergHier finden Sie weitere Informationen über die Version der Software und zur Lizenz. Außerdem können Sie Verfügbarkeiten (Ausfälle und Ausfallzeiten) einsehen.

Einstellungen

Alle Hilfebeiträge für die Einstellungen finden Sie hier.

Dashboard Suite

Alle Hilfebeiträge für die Dashboard Suite finden Sie hier.

Hilfebeiträge

Hier werden alle Hilfebeiträge gelistet.

Anleitungen

Alle Anleitungen für verschiedene Themen in Bezug auf Daten nutzen in der Produktion finden Sie hier.

Messmerkmale gruppieren

Funktionsweise Messmerkmale gruppieren

Das Gruppieren von Messmerkmalen hilft bei Fragestellungen wie "Wie verhalten sich verschiedene Aufträge?", "Was sind die Unterschiede zwischen zwei Chargen?", "Wie verhalten sich einzelne Schichten?". Dabei wird ein Meta-Attribut (z.B. Auftragsnummer) selektiert und für jeden Auftrag alle vorhandenen Messungen als Gruppe dargestellt.

Anleitung zum Messmerkmale gruppieren

Schritt 01: Messmerkmal einblenden im Analysebereich

Schritt 02: Meta-Attribut in den Arbeitsbereich ziehen

Schritt 03: Gruppierungseinstellungen vornehmen

Statistikbereich für gruppierte Messmerkmale

Ergebnis

Das Messmerkmal ist gruppiert dargestellt. Die Statistiken werden pro Ausprägung des Meta-Attributes berechnet.

Diagrammoptionen im Smart Analyser

In Smart Analyser finden Sie im rechten Bereich über dem Diagramm den Button "Diagrammoptionen". Hier können Sie verschiedene Optionen für die Diagrammdarstellung variieren.

Optionen im Diagramm

DiagrammoptionBedeutung
OrdinalachseBei Aktivierung werden "Lücken" auf der X-Achse ausgeblendet. Bei der Nicht-Aktivierung wird für jeden Wert auf der X-Achse ein Platzhalter im Diagramm freigehalten.
Y-Achsen verbindenBei Aktivierung werden alle Messmerkmale auf eine gleichskalierte Y-Achse gelegt. Bei Nicht-Aktivierung werden alle Messmerkmale auf verschieden skalierte Achsen gelegt.
Dynamische Auflösung
Wenn in der aktuellen Ansicht mehr Messwerte vorhanden sind, als sinnvoll angezeigt werden können, wird die Ansicht automatisch in der Auflösung reduziert. Bei Nicht-Aktivierung werden alle Messwerte dargestellt. Dies kann zu Performanceeinbußen führen.
Enthält Ihr Datensatz Ausreißer kann es sinnvoll sein, diese Option zu deaktivieren.
In Y-Richtung zoomenBe Aktivierung wird durch während dem Scrollen mit dem Mausrad in Y-Richtung gezoomt. Bei Nicht-Aktivierung wird standardmäßig in X-Richtung gezoomt.
Diagramm glättenBe Aktivierung wird eine geglättete Version der ausgewählten Messmerkmale angezeigt. Im Hintergrund werden weiterhin die einzelnen echten Messwerte eingeblendet. Bei Nicht-Aktivierung werden alle Messwerte angezeigt.

Smart Analyser

Alle Hilfebeiträge für den Smart Analyser finden Sie hier.

Export von Daten als CSV- oder Excel-Datei

Funktionsweise des Exports

In der Auswertung können Daten exportiert werden. Zum einen können die ausgewählten Rohdaten als .csv oder .xlsx exportiert werden. Dabei werden die gewählten Filter und die im Liniendiagramm ausgewählten Messmerkmale berücksichtigt. Ebenso können die berechneten Statistiken als .csv exportiert werden. Der Export bezieht sich immer auf die gewählten Filtereinstellungen.

Anleitung zum Export

Option 1: Messwerte exportieren

Schritt 01: Export starten 

Schritt 02: Exporteinstellungen "Datenexport"

Option 2: Statistiken exportieren

Data Warehouse

Alle Hilfebeiträge für das Data Warehouse finden Sie hier.

Funktionsübersicht: Berechnete Spalten

Mit Hilfe von berechneten Spalten können neue Spalten im Data Warehouse erstellt und gefüllt werden. Dabei werden sie für jede neu hinzugefügte Zeile einer Tabelle neu berechnet. Eine Funktionsänderung führt dazu, dass alle Zeilen einer Tabelle mit der neuen Berechnungsvorschrift aktualisiert werden. Wie man eine neue berechnete Spalte hinzufügt, wird in diesem Dokument beschrieben.

Datentypen

Im Data Warehouse sind drei verschiedene Datentypen definiert: Zahlen, Text und Datum. Mit diesen können verschiedene Rechenoperationen durchgeführt werden.

TypBeispiel
Zahl-123.45
Text"Text"
DatumYYYY-MM-DD HH:MM:SS
Datentypen im Data Warehouse

Variablendefinition

Für verschiedene Rechenoperationen werden Referenzen auf andere Datentabellenwerte verwendet. Dabei wird entweder auf die gleiche Zeile (Werteverweis) in einer anderen Spalte oder auf eine andere Spalte verwiesen (Spaltenverweis).

ReferenzBeispiel
Ein Wertverweis liest einen Wert aus der aktuellen Zeile in der angegebenen Spalte und wird für direkte Berechnungen verwendet.$2 (Wert in Spalte 2)
Ein Spaltenverweis bezieht sich auf alle vorhergehenden Werte aus der angegebenen Spalte und wird für Suchen und laufende Berechnungen verwendet.@2 (Alle Werte in Spalte 2)

Mathematische Grundfunktionen

Die folgende Tabelle enthält alle verfügbaren Rechenoperationen mit Beispielen:

FunktionBeschreibungBeispiel
Additionsum(a Zahl,...)
Summiert eine beliebige Anzahl Werte in einer Zeile.
sum(date Datum, seconds Zahl)
Addiert/Subtrahiert die angegebene Anzahl Sekunden zu einem Datum.
sum(col Spalte)
Berechnet eine laufende Summe über die angegebene Spalten.
sum($0,$5,10)
Summiert Spalten 0, 5 und 10 auf.

sum($0, -60)
Zieht 60 Sekunden eines Datums ab.

sum(@0)
Berechnet eine laufende Summe über spalte 0.
Differenzdiff(a Zahl, b Zahl)
Berechnet die Differenz zweier Werte.
diff(col Spalte)
Berechnet die Differenz zwischen dem aktuellen und dem vorherigen Wert in der angegebenen Spalte.
diff(a Datum, b Datum)
Berechnet die Differenz zwischen zwei Zeitstempeln in Sekunden.
diff($0, 50)
Zieht Wert 50 von Spalte 0 ab.
diff(@0)
Berechnet die Differenz zwischen zwei Zeilen in Spalte 0.

diff($1,$2)
Gibt die Differenz zwischen zwei Zeitstempeln zurück.
Multiplikationmul(a Zahl,b Zahl) 
Multipliziert zwei Werte miteinander.
mul($0, 10)
Multipliziert Spalte 0 mit 10.
Divisiondiv(a Zahl, b Zahl)
Dividiert zwei Werte miteinander.
div($0, 10)
Dividiert Spalte 0 durch die Zahl 10.
Mittelwertavg(a Zahl, ...)
Berechnet den Mittelwert einer beliebigen Anzahl von Werten.
avg(col Spalte)
Laufender Mittelwert über die angegebene Spalte.
avg($0, $5, 10)
Berechnet Mittelwert aus Spalte 0,5 und 10.

avg(@0)
Berechnet laufenden Mittelwert für Spalte 0.
Minimummin(a Zahl, ...)
Berechnet das Minimum einer beliebigen Anzahl von Werten.

min(col Spalte)
Berechnet das Minimum einer beliebigen Anzahl von Werten.
min($0, $5, $10)
Berechnet Minimum aus Spalte 0, 5 und 10.

min(@0)
Berechnet laufendes Minimum für Spalte 0.
Maximummax(a Zahl, ...)
Berechnet das Maximum einer beliebigen Anzahl von Werten.
max(col Spalte)
Laufendes Maximum in der angegebenen Spalte.
max($0, $5, $10)
Berechnet Maximum aus Spalte 0, 5 und 10.

max(@0)
Berechnet laufendes Maximum für Spalte 0.
Absolutwertabs(a Zahl)
Berechnet den Absolutwert einer Zahl.
 abs(-1)
Gibt den Wert 1 zurück.
Rundenround(col Spalte)
Gibt eine gerundete Zahl zurück.
Wurzelsqrt(a Zahl)​
Berechnet die Wurzelfunktion einer Zahl
sqrt($0)
Wurzel des Wertes in Spalte 0.

Datumsfunktionen

Alle Berechnungsfunktionen mit Bezug auf ein Datum sind in der folgenden Tabelle aufgelistet:

FunktionBeschreibungBeispiel
Stunden/Minuten aus Datumtime(col Spalte)
Rückgabe der Stunden und Minuten eines Datums (Datum und Uhrzeit).
time ($2)
Die Funktion gibt die Zahl 830 zurück, wenn in Spalte 2 derselben Zeile die Zeit "08:30" steht.
Wochentagweekday(col Spalte)
1 bei Wochenende, sonst 0
Gibt zurück, ob ein Datum auf ein Wochenende fällt.
weekday($2)
Wenn in Spalte 2 der gleichen Zeile ein Datum steht, das ein Montag ist, liefert die Funktion 1.
Wochenendeweekend(col Spalte)
Gibt den Tag der Woche zurück
0 für Montag, 6 für Sonntag
Rückgabe eines numerischen Wertes für den Tag der Woche.
weekend($2)
Wenn in Spalte 2 der gleichen Zeile ein Datum steht, das ein Sonntag oder ein Samstag ist, liefert die Funktion 1.
Zeitangabe rundenround(col Spalte)
Rückgabe der gerundeten Zeit (in Stunden, Minuten, Sekunden).
round($2)
Die Funktion gibt die gerundeten Minuten aus, wenn in Spalte 2 der gleichen Zeile ein Datum steht.

Logische Funktionen

In der folgenden Tabelle sind alle Funktionen mit Bezug zu logischen Operationen gelistet.

FunktionBeschreibungBeispiel
Werte zuweisenmatch(col Spalte, wenn1, dann1,wenn2, dann2, ...,[,default])
Prüft, ob eine Spalte mehrere Kriterien erfüllt. Der Standardwert wird verwendet, wenn kein Kriterium zutrifft.
match($2, 0, "Nachtschicht", 1, "Tagschicht", 2, "Spätschicht") 
Bei einem Eintrag mit dem Wert 0 in der dritten Spalte wird in der neuen Spalte der Text ”Nachtschicht” eingetragen - bei einem Eintrag mit dem Wert 1 wird “Tagschicht” eingetragen
Wertebereich zuweisenmatchrange(col Spalte, von1, bis1, dann1, von2, bis2, dann2,...[, default])
Prüft, ob ein Wert in einem bestimmten Bereich liegt und weist gegebenenfalls eine Klassifizierung zu. Der Standardwert wird verwendet, wenn kein Kriterium zutrifft.

Kann auf Zahlenbereiche und Datumsbereiche angewandt werden.
matchrange(time($0), 600, 1400, "Früh", 1400, 2200, "Spät", "Nacht")
Aus der Spalte mit dem Datum/Zeitstempel (hier Spalte 0) wird eine neue Spalte berechnet, die zwischen Früh-, Spät- und Nachtschicht unterscheidet.

matchrange($1,#2024-01-01 00:00:00#,#2024-01-14 23:59:00#,"Version 1","Version 0")
Für alle Zeitwerte in Spalte 1 zwischen dem 01.01. und dem 14.01. wird das Meta-Attribut Version 1 zurückgegeben. Ansonsten Version 0.
Text extrahierenmid(a, Position, Anzahl)​
Extrahiert eine gewünschte Anzahl von Zeichen aus der Quelle (a) an der ausgewählten Position und speichert sie als Text.
mid($0, 2, 1)​
Der Inhalt der Spalte $0 ist der Name des Labels „AB73365“. Die Berechnung exportiert ein Zeichen an Position 2 (Indizierung beginnt bei 0): Das Ergebnis ist also „7“.