Susanne Mentel

Deggendorfer Forum zur digitalen Datenanalyse e.V. (Hrsg.), GoBD und Big Data


Deggendorfer Forum zur digitalen Datenanalyse e.V. (Hrsg.), GoBD und Big Data. Neue Herausforderungen für die digitale Datenanalyse, Berlin (Erich Schmidt) 2015, ISBN 978-3-503-16543-8, € 39,95

ZD-Aktuell 2017, 04261    Unter dem Thema „Datenanalyse: Objektivität, Transparenz und Vertrauen durch Big Data?!“ versammelten sich im Dezember 2015 i.R.d. 11. Deggendorfer Forums zur digitalen Datenanalyse Vorträge aus Wirtschaft, Forschung und Praxis. Die dort gehaltenen Beiträge wurden aus dem Englischen übersetzt und in einem Tagungsband veröffentlicht. 2016 fand das 12. Forum vom 9.-10.6. statt. Die Aktualität der Herausforderungen rund um das Thema „digitale Datenanalyse“ wird im vorliegenden Beitrag zum Anlass genommen die Beiträge des Tagungsberichts in aller Kürze vorzustellen.

 

Für die Eröffnungsrede der Veranstaltung, die 2015 bereits ihr 10-jähriges Bestehen feierte, konnte, wie bereits zum ersten Forum 2005, Prof. Dr. Hart Will gewonnen werden. Will mahnte als Begründer der Audit Command Language (ACL), einer Prüfsoftware, die zur Verarbeitung von „small data“ entwickelt wurde, in seinem Beitrag davor, einer gefährlichen Illusion zu erliegen, „wer sich der bei Big Data-Ideologie unkritisch ergibt“. Den Titel der Veranstaltung aufnehmend sei durch Big Data weder erhöhte Objektivität noch größere Transparenz und noch weniger mehr Vertrauen zu erreichen (S. 53). Weil Daten nicht nur Erkenntnisse, sondern auch Risiken bergen, sollten diese aus einer syntaktischen, semantischen und pragmatischen Sichtweise heraus betrachtet werden. Schon die Begriffe des Big Data-Phänomens wären, bei aller Begeisterung vieler, nicht verständlich beschrieben, geschweige denn definiert. Will appelliert zudem dafür, sich rational und stark gegen ideologische Ströme zu stemmen und Daten sowie Metadaten stets kritisch auf ihre Wahrheit hin zu untersuchen. Daten dürften als Wirtschaftsgut nicht verwendet werden, ohne dass für sie eine Rechenschaftspflicht übernommen werden muss.

 

Der zweite Beitrag von Dr. David Christen, Dr. Markus Grottke und Martin Landvoigt thematisierte die rechnungslegungsbasierte Unternehmensbewertung unter Einbezug unstrukturierter Informationen. Die Autoren gehen davon aus, dass nur noch 20% des Marktwerts eines Unternehmens anhand der Aktiva und Passiva des Rechnungswesens erklärt werden können, wobei 80% auf andere Informationen zurückzuführen wären (S. 59). Diesen Umstand aufnehmend stellt der Beitrag das theoretische Fundament einer anhand von Rechnungslegungsinformationen vollzogenen Unternehmensbewertung vor und zeigt anhand eines Bewertungsbeispiels auf, wie sich die verwendeten Größen ermitteln lassen. Das auf Ohlsen basierende Modell von Christen und Grottke berücksichtigt diese Informationen anhand eines Markovkettensansatzes. Bei dem Einsatz von unstrukturierten Datenmengen sei jedoch auch Vorsicht anzuraten. Zwar sei eine breite Datenbasis zunächst objektiv und wenig angreifbar, eine systematische Verzerrung sei jedoch nie auszuschließen. Eine Rückkehr zu Lösungen, die auf kleinere Datenmengen basieren, dafür aber die Möglichkeit bieten, das Resultat mit gesunden Menschenverstand auf seine Richtigkeit hin zu überprüfen, stellen die Autoren als lohnenden Ausblick dar (S. 79).

 

Trotz der Tatsache, dass Instrumente der digitalen Datenanalyse aus den prüfenden Berufen wie dem des Steuerberaters oder Wirtschaftsprüfers nicht mehr wegzudenken sind, werde die Funktionsvielfalt der Datenanalyse-Tools kaum genutzt (S. 87). Wolf-Dieter Richter (BDO AWT, München) und Dominik Fischer (4komma7 – IT-Solutions) beschäftigen sich sodann in ihrem Beitrag mit der Journaldatenanalyse (Journal Entry Testing), die Auffälligkeiten in Transaktionen feststellen kann, um so tiefergehende Prüfungen durchführen zu können. Zwar existieren bereits unterstützende Lösungen, wie die Buchungsjournalprüfung, die Prüfungen erleichtern. Eine solche kann jedoch lediglich Annahmen und Hypothesen treffen (S. 88). Um diese zu verifizieren wäre eine Netzwerkanalyse sinnvoll. Die Autoren zeigen nach einer theoretischen Einführung die Anforderungen auf, die an eine Analysesoftware gestellt werden, und stellen ein praxisorientiertes Softwaredesign vor.

 

Mit der „Datenanalyse als Vorbote für die zukunftsorientierte Risikobewertung im Mittelstand“ beschäftigen sich Günter Müller (Unternehmensberatung Müller) und Anton Grening (dab:gmbH). Mittelständische Unternehmen stünden zwar auf Grund der Globalisierung unter zunehmendem Wettbewerbsdruck, seien jedoch weiter stark auf Erfolgskurs. Die Autoren sehen allerdings einen dringenden Handlungsbedarf hinsichtlich der Verwendung von digitalen Analysen im Mittelstand. Durch die Digitalisierung und auf Grund gesetzlicher Aufbewahrungsfristen speichere auch der Mittelstand umfangreiche Daten (S. 114). Diese würden aber nicht umfassend genutzt, was auch auf fehlendes Wissen in den Unternehmen zurückzuführen sei. Im Rahmen von Big Data bestünden jedoch unzählige Möglichkeiten die gesammelten Daten sinnvoll zu nutzen. Eines der genannten Verfahren sind Predictive Analytic. Der besondere Vorteil dieser Analysen läge darin, bereits vorhandene Daten im Unternehmen zu nutzen und gleichzeitig externe Daten zuführen zu können. Im Unterschied zur beschreibenden (descriptive) Analyse, nach der lediglich vergangene Ereignisse analysiert werden, dienen vorhersagende (predictive) Analysen dazu, Erkenntnisse für die Zukunft abzuleiten (S. 118, wobei anzumerken ist, dass der Tagungsband vorhersagende Analysen irrtümlicherweise als „prescriptive“ bezeichnet. Der richtige Begriff für diese Form der Datenanalyse lautet „predictive“.) Durch Predictive Analytics kann aus den bereits vorhandenen Daten zusätzliches Wissen für das Unternehmen generiert werden. Hierfür sei es jedoch erforderlich, dass die Datenbestände der einzelnen Unternehmensbereiche miteinander verbunden sind. So können z.B. Maschinenausfallzeiten im Vorfeld analysiert werden, um deren Wartung zu optimieren und Kosten zu senken. Aber auch Müller und Grenig betonen bei allen Vorteilen solcher Analysen die Notwendigkeit einer guten Datenqualität (S. 123).

 

Dr. Sascha Mehlhase vom Lehrstuhl für Elementarteilchenphysik an der LMU München stellt die Verbindung zwischen analytischen Methoden in der Teilchenphysik und der Wirtschaft her. Beide, so der Titel seines kurzen Beitrags, sind auf der Suche nach der Teilchen-Nadel im Daten-Heuhaufen (S. 127).

 

Dr. Lars Meyer-Pries von der DATEV eG in Nürnberg betitelte seinen Vortrag mit „GoBD und E-Bilanz im Spannungsfeld zwischen Digitalisierungsstreben und Akzeptanzanspruch“. Die Finanzverwaltung treibe die Automatisierung der Besteuerungsverfahren immer weiter voran. Über die reine Abwicklung einzelfallbezogener Steuerdeklaration hinaus können Risikomanagementsysteme das Ausfallrisiko von Steuern sowie die zweckmäßige Auswahl an Betriebsprüfungsfällen steuern. Ob dies ein notwendiges Mithalten oder Aufrüsten der Finanzverwaltung gegenüber der Wirtschaft ist, sei dahingestellt (S. 137). Die Frage nach der Qualität der Ausgangsdaten stelle sich jedenfalls auch hier. Dabei spielen die seit dem 1.1.2015 geltenden Ordnungsmäßigkeitsgrundsätze der Finanzverwaltung in Form der GoBD (Grundzüge zur ordnungsgemäßen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff) ebenso wie die Einführung der E-Bilanz eine Rolle. Meyer-Preis erläutert sodann die wesentlichen Änderungen und geht auf die Hürden und Spannungsfelder aus Sicht des IT-Herstellers ein (S. 149 ff.).

 

Den Abschluss machte Holger Klindtworth (EBNER STOLZ, Hamburg) mit seinem Beitrag „GoBD und Big Data“, in dem er ausgewählte Aspekte der GoBD nennt und Konsequenzen für die Abschlussprüfung aufzeigt. Sein euphemistisch formuliertes Fazit „Big Data! – Vollständige steuerliche Transparenz“ schließt den Tagungsband (S. 165).

 

Die speziell auf die Finanzverwaltung und die prüfenden Berufe bezogenen Beiträge geben mit ihrer Vielschichtigkeit einen Einblick in die Herausforderungen der digitalen Datenanalyse. Trotz aller Euphorie wird das Big Data-Phänomen durchaus kritisch betrachtet und nach Lösungsmöglichkeiten für eine qualitativ hochwertige Datenanalyse in den genannten Bereichen gesucht. Trotz einiger den Lesefluss leicht störender Übersetzungsfehler ist der Tagungsband für einen an der Materie interessierten Leser empfehlenswert.

 

Dipl.-Jur. Susanne Mentel ist Doktorandin am Institut für Informations-, Telekommunikations- und Medienrecht (ITM) der Universität Münster.