Heise Consulting Services GmbH
images/Logo3-trans.png

"Datenmanagement ist der Einsatz von Methoden, Verfahren und organisatorischen, architektonischen sowie prozessualen Aspekten im Umgang mit dem Rohstoff Daten zur Mehrung des Produktionsfaktors Wissen"

Unternehmen verfügen seit Jahrzehnten über Massendaten, die in Datawarehouse Plattformen gespeichert und mit Business Intelligence Systemen ausgewertet werden können. Big Data beschreibt Daten, die aufgrund Ihres Umfangs, Unterschiedlichkeit und Schnelllebigkeit nur begrenzt mit herkömmlichen Datenbanken und Datenmanagement Tools verarbeitet werden können. Das Volumen  der weltweit zur Verfügung stehenden Daten verdoppelt sich aktuell alle zwei Jahre. Die Daten entstehen durch die Digitalisierung, Erfassung von Mess-, Steuer- und Kommunikationsdaten sowie neuer Geschäftsmodelle der Wissensgesellschaft (z.B. Soziale Netzwerke, Gesundheitsmonitoring). Der betriebswirtschaftliche Wert von unternehmensrelevanten Daten wird zunehmend erkannt. Erkenntnisse und Entscheidungen, die sich aus Informationen und den hierzu genutzten Daten erzeugen lassen, stellen oft einen Wettbewerbsvorteil dar.

Die Datenverarbeitung in den Unternehmen ist historisch gewachsen, wodurch der Datenfluss zwischen Anwendungen und deren Schnittstellen nicht immer genau bekannt, die Methoden und Technologien unterschiedlich sind, so dass das Risiko hoch ist, bei kleinen Veränderungen in den Quellsystemen und Schnittstellen unerwartete Datenfehler zu erhalten. Der Aufwand in der IT im Umgang mit der Datenintegration von Massendaten ist bereits jetzt hoch und steht der Herausforderung gegenüber, flexibel und zügig neue Daten für Auswertungs- und Analysezwecke zur Verfügung zu stellen. Ein Projekt zur Erweiterung des Datawarehouse zu einer Big Data Plattform löst dieses Dilemma nicht, folgende Herausforderungen bleiben: 

  • Die Anforderungen an die Aktualität der Daten für Analysezwecke wächst, die klassische Datenversorgung mit ETL/ELT in Datawarehouse Umgebungen ist jedoch häufig eine Batchverarbeitung
  • Unternehmensdaten im Datawarehouse sind mitunter in ETL/ELT Strecken veredelt, aggregiert und gefiltert, so dass die Auswirkungen von Datenqualität und Datentransformationen auf Analyseergebnisse nicht abgeschätzt werden können
  • Der Aufbau weiterer Schnittstellen oder der Einsatz von Data Federation reduziert den Aufwand der IT und die Komplexität nicht, wenn nicht bestehende Schnittstellen konsolidiert werden
  • Skalierbarkeit der Datenmanagement Prozesse
  • Wirksamer Schutz vor Datenmissbrauch
  • Die Datenstrategie muss im Einklang mit der Geschäftsstrategie stehen
  • Erklärung:  Wie werden Bits&Bytes zu Daten, Daten zu Informationen und Informationen zu Wissen: durch transparente Datenherkunft, klare Definitionen der Daten, klare Verantwortlichkeiten, Kenntnis über Einflussfaktoren auf Daten und ein wirksames Datenqualitätsmanagement
  • Umsetzung gesetzlicher Vorschriften, z.B. Erfüllung von Grundsätzen für die effektive Aggregation von Risikodaten und die Risikoberichterstattung (BCBS 239) im Bankwesen
  • Klar definierte Regeln, Methoden und Verfahren zum Umgang mit Daten müssen für alle IT Projekte und alle Ebenen der Organisation gelten (Data Governance)

Unser Angebot:

Wir unterstützen Unternehmen bei der Einführung, Anpassung und Umsetzung ihres Datenmanagements

Vorgehensbeispiele:

  • Analyse bestehender Data Governance Regeln und Prozesse, Professionalisierung von Data Governance (KPI's zur Verifikation der Einhaltung von Governance Regeln, zentrales Repository über den "Rohstoff" Daten, Umgang mit kritischen Datenelementen, Datensicherheit und Datenqualität)
  • Analyse von Schnittstellen und ETL/ELT Tools, Verifikation und Aktualisierung bestehender Datarepositories, Identifikation von Maßnahmen zur Komplexitätsreduktion in Schnittstellen und Datentransformationen, Konsolidierung von Schnittstellen und ETL/ELT Tools
  • Analyse neuer Datentypen (Big Data), Gap-Analyse und Anpassung von Konzepten, Richtlinien, Methoden und ggf. Toolauswahl zur Verarbeitung neuer Datentypen (Big Data), Implementierung und Test neuer Schnittstellen
  • Analyse existierende Berichts- und Analyse-Lösungen, Abschaffung von Insellösungen und Aufbau ganzheitlicher Lösungen
  • Professionalisierung von Datenmanagement Prozessen (Service Strategie,  Service Design, Service Transition und Service Operation, Data Governance) zur Erhöhung der Agilität gegenüber Anforderungen
  • Aufbau von "Data Lakes" mit Rohdaten interner und externen Datenquellen in einem zentralen Datenspeicher (skalierbar) mit einfachem Zugriff für Analysten und Poweruser unter Einhaltung von Data Governance Regeln

Wie können wir Sie unterstützen? Je nach Ausgangssituation in Form von Beratung, Interim-Management, Coaching für Führungskräfte und Trainigs.

Projektbeispiele:

  • Beratung: Datenmanagement Konzept für ein Datawarehouse
  • Interim-Management: Projektmanagement zur Einführung eines ETL Tools in eine Datawarehouse Umgebung
  • Interim-Management: Projektmanagement zur Transformation eines eigen entwickelten ETL Tools durch ein kommerzielles ETL Produkt nebst Konsolidierung bestehender Schnittstellen