BLOG

Industrie 4.0: der Erfolgsfaktor Datenqualität - „Make it clean" und „Keep it clean"

03/08/2017 16:49 CEST | Aktualisiert 03/08/2017 16:49 CEST
iStock

Viele Unternehmen beschäftigen sich intensiv mit dem Thema Industrie 4.0 und damit, wie sie die verfügbaren Technologien gewinnbringend für sich nutzen können. Das ist wichtig und richtig. Jedoch wird dabei die Qualität der Daten oft vernachlässigt, obwohl gerade diese Daten die hochautomatisierten Prozesse in der Industrie 4.0 steuern.

Auf dem Weg in die Industrie 4.0 geht es um die Verknüpfung aller am Wertschöpfungsprozess beteiligten Systeme mit dem Ziel, Produktions- und Logistikprozesse zu automatisieren und zu optimieren. Das Ideal: völlig autonome Prozesse, die auf Basis von Daten gesteuert werden und eine wirtschaftliche Produktion bis zur Losgröße 1 ermöglichen.

Während man sich in vielen Unternehmen intensiv darüber Gedanken macht, wie die verschiedenen Systeme gekoppelt und unterschiedliche Datenformate übersetzt werden, wird die Qualität der Daten meist nicht thematisiert. Und das, obwohl eine hohe Datenqualität, insbesondere von Stammdaten, ausschlaggebend für den Erfolg digitaler Prozesse ist.

Der Grund ist einfach: Für automatisierte Fertigungsprozesse greifen die miteinander kommunizierenden Maschinen und Logistiksysteme auf eine Vielzahl von Stammdaten wie Materialnummern, Fertigungsanlagen, Transportmittel, Werkzeuge oder Lieferadressen zu, die das ERP-System zur Verfügung stellt. Ein falscher Datensatz an einer einzigen Stelle vererbt sich - bedingt durch den hohen Vernetzungsgrad der Systeme - immer weiter und führt zu Folgefehlern und -kosten.

Das menschliche Korrektiv entfällt

Mit der zunehmenden Automatisierung entfällt zudem das menschliche Korrektiv. Ein Beispiel: Im Bestellvorgang enthält eine Materialnummer einen Zahlendreher. In der Folge wird das falsche Material an die Produktionsanlage geliefert und verarbeitet.

Ein erfahrener Maschinenführer würde diesen Fehler bemerken und korrigierend eingreifen. Bei einem autonomen Prozess hingegen wird der Fehler nicht erkannt. Die Folgen: hohe Kosten, Neuproduktion, Lieferverzug, ein verärgerter Kunde. Erschwerend kommt hinzu, dass die für die Industrie 4.0-Prozesse notwendigen Daten oft aus zahlreichen Quellen wie z.B. MDE, BDE oder Personalabrechnung etc. stammen, die alle Unvollständigkeiten oder Fehler enthalten können.

__________

Nur mit dem Erfolgsfaktor qualitativ "guter" Daten funktionieren die angestrebten autonomen Prozesse im Rahmen von Industrie 4.0 wirklich reibungslos.

__________

Datenqualitätsmanagement als kontinuierlicher Prozess

Ein professionelles Qualitätsmanagement der Stammdaten für autonome Fertigungs- und Logistikprozesse ist daher ein absolutes Muss. Effektiv unterstützen können dabei heute aber zeitgemäße ERP-Systeme mit einem sogenannten „Data Quality Manager". Denn dieses integrierte Werkzeug kann leere Felder, Inkonsistenzen, Fehler und auffällige Varianzen in den Stammdaten automatisch identifizieren. Dazu bringt ein solches Tool zahlreiche vordefinierte Regeln mit, die sich vom Anwender individuell nach seinen Bedürfnissen mit weiteren Regeln und Schwellenwerten ergänzen lassen.

Ergänzend können im Rahmen von Data Quality-Workshops mit Experten Qualitätsraster individuell für das jeweilige Unternehmen erarbeitet und festgelegt werden. Bei einer solchen umfangreichen Unterstützung zur Messung, Bewertung und nachhaltigen Verbesserung der Datenqualität stehen die Aspekte „Make it clean" und vor allem „Keep it clean" im Vordergrund. Denn Datenqualitätsmanagement darf kein einmaliges Projekt sein, sondern muss als dauerhafter Prozess implementiert werden.

Dazu gehört es, die Stammdaten in definierten Perioden automatisiert aus dem ERP-System in den „Data Quality Manager" zu exportieren und gegen die definierten Regeln abzugleichen. So werden fehlerhafte Informationen, Dubletten oder Abweichungen erkannt und klassifiziert. Fehler und Regelverletzungen können daraufhin von den Fachbereichen korrigiert werden. Danach lassen sich die bereinigten Datensätze wieder automatisiert in das ERP-System importieren. So wird die Qualität der Stammdaten kontinuierlich verbessert.

Festlegung effizienter Workflows

Darüber hinaus empfiehlt es sich, schon bei der Neuerfassung von Stammdaten effiziente Workflows festzulegen, sodass neue Informationen erst dann verwendet werden, wenn ein hohes Maß an Datenqualität sichergestellt ist. So können Qualitätsanforderungen und Verantwortlichkeiten definiert werden. Hinzu kommen Archivierungsfunktionen für nicht mehr benötigte Daten, um das System von unnötigem Ballast zu befreien und auch so für eine hohe Qualität in den Datensätzen zu sorgen.

Fazit

Der Weg zur Industrie 4.0 erfordert mehr, als Kommunikation und den Datenaustausch zwischen Produkten, Maschinen, Logistik und ERP zu gewährleisten: Da die Stammdaten die notwendigen Prozesse steuern, ist auch deren Qualität von enormer Bedeutung. Nur mit qualitativ „guten" Daten funktionieren auch die angestrebten autonomen Prozesse reibungslos. Zukunftsorientierte ERP-Systeme bieten die Möglichkeit automatisierter Datenqualitätsprüfungen, die gemeinsam mit dem kontrollierenden und regulierenden Faktor Mensch für effiziente und weitestgehend fehlerfreie Prozesse sorgen.

____

Lesenswert:

Leserumfrage: Wie fandet ihr uns heute?

2017-03-08-1488965563-6721107-iStock482232067.jpg

Ihr habt auch ein spannendes Thema?

Die HuffPost ist eine Debattenplattform für alle Perspektiven. Wenn ihr die Diskussion zu politischen oder gesellschaftlichen Themen vorantreiben wollt, schickt eure Idee an unser Blog-Team unter blog@huffingtonpost.de.

Sponsored by Trentino