CHB_RSW_Logo_mit_Welle_trans
JuS_Logobasis_Linsenreflex
Menü

Datenmanagement als Kernkompetenz

Dr. Hans-Jürgen Hillmer

Make Data Work („Daten zum Funktionieren bringen“): Datenarbeit und Analytics zwischen Evolution und Revolution

 

Daten liefern einen Mehrwert in nahezu allen Geschäftsmodellen, nicht nur zur Effizienzsteigerung und Kostenreduktion, auch zur Innovationsförderung und Erzielung von Wettbewerbsvorteilen sowie zur Verbesserung des Risikomanagements. Bei der Umsetzung von sog. Datenprojekten sind typische Hürden, wie das Denken in Datensilos, unklare Zugriffsberechtigungen und das Nebeneinander abgeschotteter Teams, zu überwinden.


 

Praxis-Info!

 

Problemstellung

Datenarbeit und Analytics waren die Kernthemen auf dem 10. QUNIS DAY 2024, zu dem die Veranstalter (namentlich Hermann Hebben und Steffen Vierkorn als geschäftsführende Gesellschafter der Qunis AG) am 6.9.2024 ca. 200 Teilnehmer begrüßen konnten. In der Keynote forderte Steffen Vierkorn, Datenorganisationen neu zu leben; er zeigte auf, wo die Herausforderungen im Bereich Data & Analytics aktuell liegen und wie Data Mesh (Datennetz) und Lakehouse-Architekturen (Data Lake = Datenspeicher) in Kombination helfen, diese zu lösen. Neben Tools sind insbesondere entsprechend befähigte Menschen erforderlich.

 

 

Lösung

Daten können einen Mehrwert in nahezu allen Geschäftsmodellen liefern. Richtig erhoben und ausgewertet tragen sie nicht nur zur Effizienzsteigerung und Kostenreduktion bei, sondern das Datenmanagement befähigt auch zur Innovationsförderung und Erzielung von Wettbewerbsvorteilen sowie zur Verbesserung des Risikomanagements. Typische Herausforderungen bei der Umsetzung von Datenprojekten:

  • Ungeklärte inhaltliche Fragen, mangelnde Datenqualität
  • Daten liegen in Silos, Verfügbarkeit von Daten als generelles Problem
  • Abgeschottete Teams, fehlende Datenrollen.

Der IT-Experte und Qunis-Gründer Vierkorn setzt bei der Bewältigung der Herausforderungen auf Data Mesh als einen soziotechnischen Ansatz für die Erstellung einer dezentralen Datenarchitektur. Entwicklungsteams erhalten dabei die Verantwortung für die Entwicklung und den Betrieb von Datenprodukten in der jeweiligen fachlichen Domäne.

Dabei ist gemäß den weiteren Empfehlungen von Vierkorn und weiteren Qunis-Experten die Einhaltung strenger Grundprinzipien unverzichtbar:

  • Data Domain Ownership: Wem gehören die Daten in der Firma;
  • Federated Governance (= Hausordnung der Verantwortlichkeiten);
  • Data Products: Daten sind als Produkt zu denken, nicht mehr nur als Ressource;
  • Self Service: breite Streuung der Befähigung zur Datennutzung.

Ein Datenprodukt umfasst einen Lebenszyklus, eine Beschreibung und Dokumentation, Datenqualitätsfaktoren sowie Verarbeitungs-Policies (möglichst automatisiert). Datenprodukte stehen dann idealerweise quasi als Regalware für den Self Service zur Verfügung. Voraussetzung ist eine prozessübergreifende Zusammenarbeit vieler Akteure: Data Owner („Dateneigentümer“), Data Engineer (Dateningenieur), Analytics Engineer (Analysetechniker) als neue Rolle (Kompetenzen in den Wissensfunktionen), Data Architect, Power User („leistungsstarker Benutzer“).

Ein Data Lakehouse besteht vereinfacht gesagt aus einem Datentopf und einem Repertoire von Motoren, wobei verschiedene Motoren auf denselben Teil des Datentopfes zugreifen können. Erzeugt wird so eine hohe Flexibilität bei der Realisierung unterschiedlicher analytischer Use Cases (Anwendungsbeispiele). Trends sieht Vierkorn wie folgt:

  • Erarbeitung von Data Catalogues (= verfügbare Datenbereiche inkl. Berechtigungen)
  • Ausweitung des Self Service
  • KI-Einbettung als Unterstützung in zahlreichen Use Cases und Cloud Services.

Für die Zukunft sind offene Architekturen für alle Arten von Analytics-Anforderungen (z.B. auch im Reporting) empfehlenswert: Data & Analytics sind als Open Lakehouse zu konzipieren. Dabei erfordert „Open“ grundlegende Architekturleitlinien (Guidelines) hinsichtlich der Offenheit:

  • für zunehmende Datenvolumina, die sich deutlich erhöhen werden,
  • für die Gewährleistung der Cloud-Integration,
  • für alternative analytische Use Cases,
  • für Tabellenformate und Datenzugriffsmöglichkeiten,
  • für die Anwendung unterschiedlicher Computer Engines (Motoren).

Voraussetzung eines entsprechend zukunftsfähigen IT-Managements ist bei aller Offenheit als Gegenpol aber zwingend auch die Gewährleistung der zentralen Datenzugriffskontrolle. Unternehmen sind gefordert, organisatorische und technologische Verbesserungen massiv voranzutreiben, zumal sich der IT-Technologiemarkt sehr dynamisch weiterentwickeln wird.

 

 

Praxishinweise:

  • Thema war auch die Automatisierbarkeit im Controller-Beruf. 75% der Tätigkeiten könnten automatisiert werden (6 von 8 Kerntätigkeiten schon vor einigen Jahren, heute 7 von 8 bzw. 88%). Das muss aber nicht – so wurde betont – Freisetzung bedeuten, sondern die Konzentration auf anspruchsvolle Tätigkeiten (Intelligenz sitzt vor dem Bildschirm).
  • Zur Standortbestimmung bietet QUNIS einen kostenlosen „Quick Guide to Open Lakehouse“ unter https://qunis.de/kompetenzen/veroeffentlichungen/quick-guide-to-open-lakehouse/ an. Interessierte BC-Leser finden Antworten auf folgende Fragen:
    – Was ist ein Open Lakehouse – und was ist es nicht?
    – Wie sieht eine Open-Lakehouse-Architektur aus?
    – Welche Vorteile bietet ein Open Lakehouse?
    – Wie relevant ist ein Open Lakehouse für meine Organisation? (Selbsttest).


Dr. Hans-Jürgen Hillmer, BuS-Netzwerk Betriebswirtschaft und Steuern, Coesfeld

 

 

BC 10/2024 

BC20241004

 

 

Rubriken

Anzeigen

BC Newsletter

beck-online Bilanzrecht PLUS

wiwicareer-vahlen

Teilen

Menü