Mit der Qualität Ihrer Daten steht und fällt Ihr Geschäftserfolg

Die Herausforderung Content Management: Wie das Wasser als Grundlage des Lebens gilt, so gelten Daten als Grundlage des Geschäftslebens. Kein modernes Unternehmen kann heute auf digitale Informationen über Kunden, Lieferanten, Produkte oder Mitarbeiter verzichten, wenn es erfolgreich arbeiten will.

Denn ungenaue, veraltete oder gar falsche Stammdaten schaden der digitalen Transformation eines Unternehmens mehr, als sie dieser nutzen.

Führungskräfte kennen das Problem, doch in einer Studie von Lünendonk geben nur 52 Prozent der befragten deutschen Unternehmen an, überhaupt Standards für das Stammdaten-Management definiert zu haben.

Im Zeitalter der digitalen Transformation sammelt jedes erfolgreiche Unternehmen Daten. Eines der größten und teuersten Probleme, die es dabei zu lösen gilt, ist die Qualität dieser Daten.

Eine Datenanalyse ungenauer Informationen ist nutzlos, denn die erhaltenen Ergebnisse können deutlich von der Realität abweichen. Die Folge: Unternehmen können falsche Entscheidungen treffen.

Content Management

Nur Daten sammeln greift zu kurz

Die meisten Organisationen sind überzeugt, ihre Daten seien von brauchbarer Qualität. Trotzdem sind sie sich bewusst, dass schlechte Datenqualität ihrem Betriebsergebnis nachhaltig schaden kann. (The State of Enterprise Quality Data 2016 – 451 Research).

Unterdessen sorgen die Besonderheiten von Big Data für zusätzliche Probleme bei der Datenqualität. Informationen werden mit wachsender Geschwindigkeit generiert. Ein größeres Datenvolumen ist allerdings auch schwieriger zu verarbeiten.

Herausforderungen bezüglich der Datenqualität

Für sogenannte „schmutzige“ Daten gibt es vier Hauptursachen:
  • Fehlender Zusammenhang. Möglicherweise kennen Sie die Bedeutung einer Information nicht. Meint beispielsweise der Eintrag „2017“ das Jahr, den Preis (2.017 Euro), die Zahl der verkauften Produkte (2.017) oder die Personalnummer eines Mitarbeiters? Ein möglicher Grund für diesen Fehler ist eine übermäßig komplexe Struktur, etwa in großen, transaktionsorientierten Datenbanksystemen ein anderer eine nicht eindeutige Datenquelle (besonders bei externen Quellen).
  • Unterschiedliche Datentypen. Dieses Problem tritt auf, wenn Sie nicht kompatible Datentypen zusammenführen wollen. Die Inkompatibilität kann dabei in etwas ganz Einfachem bestehen (zum Beispiel, wenn Gewichtsangaben in einer Datenquelle in Pfund und in einer anderen in Kilogramm bezeichnet werden) oder äußerst komplex sein (wie unterschiedliche Datenbankformate).
  • Eingabefehler. Eingabefehler Ihrer Mitarbeiter lassen sich durch Korrekturlesen und bessere Schulung reduzieren. Beruht Ihr Geschäftsmodell jedoch auf einer Erfassung der Daten durch externe Partner oder Kunden, steigt die Gefahr „schmutziger“ Daten, da die Qualität der Eingaben nicht geprüft werden kann.
  • Systemfehler durch Serverausfälle, Fehlfunktionen, Duplikate und so weiter.

Content Management: Der Umgang mit schmutzigen Daten

Die Datenqualität zu bereinigen ist keine einfache Aufgabe. Zum einen ist es kompliziert und teurer. Der Aufwand lässt sich vor dem Management schwer rechtfertigen, da kurzfristig keine Vorteile erkennbar sind.

Zweitens hat das Sammeln von Daten und deren Interpretation etliche Schwachstellen. Darüber hinaus können sich sowohl die Daten liefernden Geschäftsprozesse als auch die eingesetzte Technologie kurzfristig ändern. Der Prozess zur Bereinigung der Datenqualität muss also flexibel sein.

Will eine Organisation also eine gleichmäßig hohe Datenqualität sicherstellen, sind oftmalige Qualitäts-Checkpoints erforderlich: beim Daten sammeln, speichern, zusammenführen, wiederherstellen, während einer Analyse oder dem Data-Mining.

Qualitätssicherung im Content Management erfordert einen Plan

Wer so viele mögliche Kontrollpunkte – mit jeweils unterschiedlicher Vorgehensweise – überwachen will, braucht einen durchdachten Qualitätssicherungsplan.

Der klassische Ausgangspunkt ist eine Untersuchung der Datenqualität, sobald die Daten im System eintreffen – oft über manuelle Eingaben oder dort, wo keine standardisierten Datenerfassungssysteme vorhanden sind. Geprüft wird auf fehlerhafte, doppelte oder zu stark abgekürzte Dateneingaben (etwa „NY“ statt „New York City“). Treten diese Fehler auf, haben Experten für Datenqualität zwei unterschiedlichen Vorgehensweisen zu ihrer Behebung.

Erstens können Sie schon präventiv bei der Gestaltung des Prozesses aktiv werden. Richten Sie zum Beispiel Datenintegritätskontrollen ein. Sorgen Sie dafür, dass bestehende Checkpoints nicht übergangen werden.

Beschränken Sie die Eingabemöglichkeiten, indem Sie etwa Freitextfelder durch Dropdown-Listen ersetzen. Belohnen Sie erfolgreiche Dateneingaben, und merzen Sie Einschränkungen bei Hard- oder Software aus (beispielsweise, wenn Ihr CRM keine Informationen direkt aus der Verkaufsdatenbank verarbeiten kann).

Die zweite Möglichkeit ist eine nachträgliche Bearbeitung, die sich auf die Datenbereinigung oder Diagnoseprogramme (Fehlererkennung) konzentriert.

Dafür empfehlen Experten folgende Schritte:
  1. Analyse der Datengenauigkeit – entweder durch eine vollständige Erhebung des Ist-Zustands (verlässlich, aber möglicherweise teuer) oder durch die Überprüfung von Arbeits- und Stichproben aus Audits (günstiger, aber nicht 100 Prozent zuverlässig).
  2. Messen der Datenkonsistenz und Übereinstimmung von Datenelementen. Probleme in diesem Bereich können die Richtigkeit der gesamten Geschäftsdaten beeinträchtigen.
  3. Quantifizieren systembedingter Analysefehler, die die Datenqualität beschädigen könnten.
  4. Erfolgsmessung vollständiger Prozesse, von der Datensammlung über die Umwandlung bis hin zur Nutzung. Beispielsweise, wie viele Meldungen für „ungültige“ oder „unvollständige“ Daten nach einem kompletten Durchlauf noch vorhanden sind.

Ihre Geheimwaffe: „Datenprovokateure“

Das alles ist jedoch nutzlos, wenn nicht Ihre gesamte Organisation bei der Verbesserung der Datenqualität in die Pflicht genommen wird. Thomas C. Redman, einer der führenden Experten auf diesem Gebiet, zeigt in seinem Artikel in der Harvard Business Review „Data Quality Should Be Everyone’s Job“ einen Lösungsansatz auf.

Redman rät den Unternehmen so genannte „Datenprovokateure“ einzusetzen. Als Datenprovokateure bezeichnet er Personen aus verschiedenen Unternehmensbereichen (vom Top-Management bis zum neuen Mitarbeiter), die die Datenqualität testen und innovative Ideen zu deren Verbesserung entwickeln.

Manche Unternehmen verleihen ihren Mitarbeitern sogar Preise, wenn diese für die Datenqualität riskante Schwachstellen in Prozessen aufdecken. Das reduziert nicht nur die Fehlerquote, sondern wirbt gleich im gesamten Unternehmen für die Idee, dass saubere, korrekte Daten wichtig sind.

Fazit

Organisationen sind durchaus zu recht besorgt um ihre Datenqualität und deren Auswirkungen auf das wirtschaftliche Ergebnis.

Diejenigen, die Maßnahmen zur Verbesserung der Datenqualität ergreifen und ein richtiges Content Management einsetzen, verzeichnen höhere Profite und effizientere Arbeitsabläufe, weil ihre Entscheidungen auf verlässlichen Daten basieren. Gleichzeitig reduzieren sie damit die Kosten für Fehlerkorrekturen und verwenden weniger Zeit auf die Erhebung und Verarbeitung ihrer Daten.

Wenn es um die Verbesserung der Datenqualität geht, sind alle Bereiche eines Unternehmens gefordert. Das beinhaltet die Akzeptanz von Kosten, denen kein kurzfristiger Nutzen gegenübersteht. Doch Unternehmen, die damit ernst machen, steigern Ihre Wettbewerbsfähigkeit und Ihren Profit.

Content Management

Mehr Profit durch Content-Integration in Ihre Systemlandschaft: Mit OpenText verbinden Sie Ihr Content Management mit Salesforce. Laden Sie hier unsere Lösungsübersicht herunter.

Dieser Artikel wurde aus dem Englischen übersetzt.

Isidre Royo

Isidre Royo ist OpenText Analytics Produktmanager und Spezialist für Predictive Analytics und Big Data. Er arbeitet am Standort Barcelona.

Weitere Artikel, die sie interessieren könnten

Schreibe einen Kommentar

Schaltfläche "Zurück zum Anfang"