„Big-Data“ ist eine Ideologie von Informationstechnologen, die algorithmisch und datentechnisch fixiert, aber leider erkenntnistheoretisch unkritisch oder gar verblendet sind. Daten sind natürlich schon immer Bausteine unseres Wissens, seit Menschen Beobachtungen machen und kritisch darüber nachdenken. Dieses Nachdenken jetzt Algorithmen überlassen zu wollen, stellt die Geistesgeschichte der Menschheit „auf den Kopf“ und versucht, geistreiche Köpfe durch digital operierende Maschinen zu ersetzen. Hinter jeder Beobachtung (allgemein als Daten verstanden) steht eine kognitive Hypothese, die zu formulieren man keinem noch so künstlich intelligenten algorithmischem Mechanismus überlassen kann, wenn man wirkliches menschliches Wissen und nicht nur gelegentliche spekulative Hinweise, „nützliche“ Trends oder „pragmatische Argumente“ gewinnen will. Wissen beruht im Idealfalle auf kausalen Erklärungen, die sich einerseits aus theoretischen Modellen ergeben, die mit passenden Daten „gefüttert“ sind, oder aus ihnen herausgefiltert werden. Andererseits ist Wissen zwischen kritischen und rationalen Menschen kommunizier bar und als logisch richtig oder falsch bzw. als glaubwürdig oder unglaubwürdig bewertbar. Maschinell entdeckte Korrelationen und ihr unkritischer Austausch zwischen Computern reichen nicht aus, weil sie nicht rational erklären, sondern sogar algorithmisch verblenden können. Folglich sind weder erhöhte Objektivität noch größere Transparenz und noch weniger verbessertes Vertrauen durch Big-Data zu gewinnen. Wir erliegen einer gefährlichen Illusion und einem geistesgeschichtlichen Irrtum größten Ausmaßes, wenn wir uns der Big-Data Ideologie unkritisch ergeben und wichtige erkenntnistheoretische oder ethische Unterscheidungen unterlassen, die wir hier am Beispiel von Wikipedia Beiträgen zum Thema herausarbeiten.
Vorträge des DFDDA 2015
Bereits seit langem wurden Unternehmensbewertungsverfahren auf Basis von Rechnungslegungskenngrößen entwickelt. Der vorliegende Beitrag zieht ein Residualgewinnmodell heran und erweitert dieses um einen Markovkettenansatz, um auch weitere unstrukturierte Informationen zu einem Unternehmen bewerten zu können. Anhand von praktischen Beispielen aus Informationen in Lageberichten (z.B. Wertrelevanz von Informationen zu Investitionen in Steuerparadiesen) und Wirtschaftsprüfertestaten werden die Leistungsfähigkeit des Ansatzes und die Zuverlässigkeit der Bewertungen demonstriert.
Während die GoBD die Ordnungsmäßigkeitsansprüche der Finanzverwaltung in abstrakter Form bündeln, schafft die E-Bilanz ganz konkrete Voraussetzungen für die standardisierte Auswertbarkeit und Vergleichbarkeit von Abschlussdaten. Beide sind aktuelle Meilensteine auf dem Weg in eine digitale Steuerdeklaration und schaffen die Voraussetzungen für ein qualitativ möglichst hochwertiges Ausgangsmaterial bei der Datenanalyse durch die Finanzverwaltung. Deshalb wurden und werden beide Themen auch kritisch vom steuerberatenden und wirtschaftsprüfenden Berufsstand sowie den IT-Herstellern begleitet. Immer dann, wenn Bürokratieabbau, Kosten/Nutzen und Chancen/Risiken nicht gleichmäßig zwischen Wirtschaft und Finanzverwaltung verteilt zu sein scheinen, regen sich Vorbehalte und Widerstände. Nach einer Einführung in die aktuellen Stati und Entwicklungen bei den GoBD und der E-Bilanz erläutert der Referent aus Sicht des IT-Herstellers die Hürden, die im Spannungsfeld zwischen dem Digitalisierungsstreben und der Anwenderakzeptanz zu überwinden sind. Er gibt einen Ausblick auf die Herausforderungen, die heute und zukünftig beim Thema „Vertrauen“ noch zu meistern sind.
Dominik Fischer / Wolf-Dietrich Richter
Die Wirtschaftsprüfung sieht sich seit Jahren einem steigenden Effizienzdruck ausgesetzt, der einerseits aus den wachsenden Anforderungen an Nachvollziehbarkeit und professioneller Prüfungsqualität resultiert, der aber auch stark durch die immens wachsende Menge an zu berücksichtigenden Informationen beeinflusst wird. Über 90 % der Buchungen, die am Ende einen höchst verdichteten Jahresabschluss ergeben, entstehen mittlerweile in Vorsystemen zur Buchhaltung und werden mehr oder weniger automatisiert in diese übernommen.
Ein Bestandteil des risikoorientierten Prüfungsansatzes ist daher das Journal Entry Testing, in dem zumindest die Einträge im Hauptbuch einer Validierung unterzogen werden, bei dem aber auch Aspekte der Entdeckung von dolosen Handlungen (Fraud) berücksichtigt werden.
Da aber die Ausbildung zum Wirtschaftsprüfer immer noch kaum technische oder datenanalytische Fähigkeiten vermittelt, sind Prüfungsansätze und Werkzeuge gefragt, die diese Lücken zumindest überbrücken können. Ein solcher Ansatz ist die Idee, Buchungsmaterial anhand der immanenten Netzwerkstrukturen zu analysieren. Auf Basis des grundlegenden Artikels „Die Netzwerkstruktur der Buchhaltung als Grundlage des risikoorientierten Prüfungsansatzes“ in: BFuP 2012 von Professor Ludwig Mochty hat Herr Dominik Fischer, mit Unterstützung von Herrn Wolf-Dietrich Richter von der BDO AWT Wirtschaftsprüfungsgesellschaft, eine Bachelorarbeit mit Betreuung von Prof. Herde in Angriff genommen, die sich als Ziel die Bereitstellung eines solchen Werkzeuges vorgenommen hat.
Bei der Analyse digitaler Daten wird regelmäßig auf tabellarische Strukturen zurückgegriffen. Dieser grundsätzliche Ansatz hat sich schon vor dem digitalen Zeitalter bewährt, da sich die Daten einfach fortschreiben lassen und die oberen Einträge somit atomar wurden. Vor allem in der Buchhaltung ein nicht wegzudenkendes Prinzip. Was einmal erfasst wurde, kann nicht mehr ohne weiteres geändert werden. Dieses Konzept wurde auch erfolgreich in die digitale Welt übernommen. Wenn es aber darum geht, die aufgezeichneten Daten auf ihre Validität zu prüfen oder auf Auffälligkeiten hin zu analysieren, geht infolge exponentiell steigendender Datenmengen schnell die notwendige Übersicht verloren. Gerade die Darstellung und Kontrolle vernetzter Werteflüsse ist auf Basis herkömmlicher Ansätze sehr umständlich und wird auch deshalb in der Praxis nur bedingt vorgenommen.
Moderne Entwicklungen von Technologien und Methoden bieten jedoch Lösungsansätze für solche Problemstellungen. Der Vortrag stellt vor, wie Journaldaten abseits klassischer Tabellen aufbereitet werden können und wie sich diese anschließend mit graphentheoretischen Algorithmen analysieren lassen. Die Konzepte werden anhand eines Prototyps analysiert. Dabei werden insbesondere auch die Stärken eines netzwerkbasierten Ansatzes in Zusammenhang mit Methoden aus dem Data Mining beleuchtet.
Ziel der Elementarteilchenphysik ist es, ein besseres und grundlegenderes Verständnis der elementarsten Bausteine unserer Welt sowie über Entstehung und Entwicklung unseres Universums zu erlangen.
Die dazu notwendigen Experimente des Large Hadron Colliders am CERN setzen dabei nicht nur bei Größe und Komplexität neue Maßstäbe sondern stellen auch in Sachen Datenverarbeitung und -analyse eine Herausforderung neuen Ausmaßes dar.
In Bruchteilen einer Sekunde muss aus Abermillionen von Daten ein verschwindend geringer Anteil an relevanten Ereignissen ausgewählt werden und für die Suche nach Neuer Physik müssen Petabytes von jährlich gewonnenen Daten durchforstet werden.
In diesem Vortrag werden die Experimente und Infrastrukturen eingeführt, die dabei entstehenden Daten charakterisiert und Methoden der Datenanalyse vorgestellt.
Die Entscheidungen in mittelständigen Unternehmen werden auch heute noch sehr stark auf Basis von Erfahrungswerten getroffen. Das Informationszeitalter in dem wir seit Jahrzehnten leben, wird dort erst jetzt Realität. Digitale Daten nehmen in einer rasanten Menge zu und verdoppeln sich laut einer Studie alle 2 Jahre.
Dadurch gewinnt der Rohstoff „Information“ eine immer größer werdende Bedeutung und wird neben Arbeitskraft, Ressourcen und Kapital als „vierter Produktionsfaktor“ genannt. Um wettbewerbsfähig zu bleiben, sind Unternehmen gezwungen sich mit diesen Daten zu beschäftigen, und das um mehr als nur ihr Tagesgeschäft abzuwickeln und Kennzahlen daraus zu berechnen.
Beschränkt sich die Datenbearbeitung nur auf das Tagesgeschäft, werden nicht alle Potentiale die in den Datenansammlungen stecken genutzt. Stimmt die Datenqualität und liegen die Daten in einer entsprechend umfangreichen Menge vor, so lassen sich diese Aufzeichnung auf ihre Entwicklungen hin analysieren. Diese Vorgehensweise wird mit dem Schlagwort Predictive Analytics beschrieben, bei dem Trends aufgrund historischer Daten berechnet werden.
Solche Vorhersagen können anschließend in die Bewertung der Risiken eines Unternehmens einfließen. Denn für gewöhnlich werden Risiken nach Erfahrung und Bauchgefühl geschätzt. Hat man aber Daten, die eindeutig eine Prozessentwicklung aufzeigen, die die Unternehmensziele gefährden, so kann das Risiko entsprechend besser eingeschätzt und Maßnahmen eingeleitet werden. Die Datenanalyse soll also einen Blick in die Zukunft wagen und den Entscheidungsträgern mithilfe einer Prognose das Bewerten der Unternehmensrisiken erleichtern.
In dem Vortrag werden u.a. praktische Erkenntnisse aus der Erstellung einer Bachelorarbeit in einem mittelständischen Unternehmen dargestellt, die Herr Grening mit Unterstützung von Herrn Müller und der Betreuung von Prof. Herde erstellt hat.
Die Regelungen der GoBD basieren auf der Zusammenführung der GoBS mit den GDPdU und sind ein konsequenter weiterer Schritt zur (Teil-)Automatisierung der steuerlichen Betriebsprüfung durch Datenanalyse. Die zukünftigen Konsequenzen dieses Weges liegen auf der Hand. „Big Data“ bei der Analyse steuerliche relevanter Informationen.