Mathematische Modelle spielen seit jeher eine wichtige Rolle in den Naturwissenschaften, was nicht zuletzt daran liegt, dass mathematische Modelle theoretische Prinzipien mit empirischen Daten auf geschickte Weise miteinander zu verbinden vermögen. Modelle vermitteln zwischen einer Theorie und der Welt, sie helfen uns dabei, die Welt zu verstehen und sie geben uns Hinweise darauf, wie wir die Welt zu unseren Gunsten manipulieren können. Und so ist es kein Wunder, dass mathematische Modelle inzwischen auch in den Sozialwissenschaften und sogar in der Philosophie eine wichtige Rolle spielen. Tatsächlich haben sich hier in den letzten Jahren Möglichkeiten aufgetan, die noch vor kurzem undenkbar erschienen. Dies soll anhand einer Reihe von Beispielen illustriert werden.
Vorträge des DFDDA 2014
In der Praxis beginnt eine Jahresabschlussprüfung typischerweise mit der Übernahme der Summen- und Saldenliste. Da die Saldenliste den zwischen den Abschlusspositionen bestehenden Buchungszusammenhang nicht zeigt, muss dieser für die Prüfungsplanung zunächst angenommen und dann im Rahmen der Prüfung des internen Kontrollsystems (IKS) schrittweise durch Befragungen verifiziert und an die realen Verhältnisse angepasst werden. Dieses Vorgehen ist fehleranfällig und zeitaufwendig.
Daher wird vorgeschlagen, die Planung einer Abschlussprüfung nicht konventionell – von der Saldenliste ausgehend, sondern auf der Grundlage des Buchungsjournals vorzunehmen. Während das Buchungsjournal die Buchungsbeziehungen zwischen den einzelnen Konten enthält, sind diese Informationen in der Saldenliste nicht mehr enthalten, sodass sie zur Aufdeckung von Auffälligkeiten nicht direkt zur Verfügung stehen. Als gravierendes Beispiel lässt sich der Buchungssatz [Verbindlichkeiten an Forderungen] nennen, dessen Brisanz in der Saldenliste nicht mehr zu erkennen ist.
Die im Buchungsjournal enthaltenen Buchungssätze lassen sich in ihrer Gesamtheit als „Journal Entry Network“[1] mit graphentheoretischen Methoden und Werkzeugen beschreiben, visualisieren und analysieren. Das Journal Entry Network eröffnet dem Prüfer einen ganzheitlichen Überblick über alle Buchungspfade, mit denen ein beliebiges Konto mit anderen Konten über alle Stufen hinweg durch gerichtete Werteflüsse in Verbindung steht. Deshalb lassen sich auf dieser Grundlage viele gehaltvolle Prüfungsfragen stellen und mit IT-gestützten Prüfungsmethoden beantworten.
Beim Versuch, die im Journal Entry Network erfassten Werteflüsse entlang der ihnen zu Grunde liegenden Geschäftsprozesse zu analysieren, zeigt sich eine unerwartete Schwierigkeit: Die im Sinne des Bilanzgliederungsprinzips verketteten Buchungssätze werden mitunter prozessual entgegengesetzt zu ihrer buchhalterischen Verkettungsrichtung durchlaufen. Während der Verkauf [Buchungssatz: Forderungen an Erlöse] typischerweise vor dem Zahlungseingang [Buchungssatz: Bank an Forderungen] erfolgt, lassen sich die zugehörigen Buchungssätze nur in umgekehrter Richtung transitiv verketten: [Bank an Forderungen] & [Forderungen an Erlöse] = [Bank an Erlöse]. Dieses Auseinanderfallen von Bilanz- und Prozessgliederungsprinzip kann zu besonderen Schwierigkeiten führen, wenn es darum geht, die Wirksamkeit und die Prozesslogik der internen Kontrollen retrograd aus dem Buchungsjournal zu überprüfen und mit den kontensaldenbezogenen Prüfungshandlungen zu verknüpfen.
Da die konventionelle Erhebung der rechnungslegungsrelevanten Geschäftsprozesse und ihrer prozesslogischen Verkettung fehleranfällig und zeitaufwendig ist, verspricht der Einsatz des „Process Mining“ und die Aufbereitung seiner Ergebnisse als „Event Graph“ ein hohes Potential zur Steigerung der Wirtschaftlichkeit und Effektivität der Abschlussprüfung. Allerdings sind die bisherigen Entwicklungen zum Process Mining auf andere Aufgabenstellungen (insbesondere das Prozessmanagement und die Prozessverbesserung) ausgerichtet, sodass sie zur rechnungslegungsrelevanten Geschäftsprozess-Analyse bisher nur in Ansätzen geeignet sind.
Der vorliegende Beitrag diskutiert Möglichkeiten und Hindernisse, die beiden graphentheoretischen Konzepte, den „Event Graph“ und das „Journal Entry Netzwerk“, zu einem dualen Revisionsansatz zu vereinen. Dieser soll die geschäftsprozessorientierte mit der bilanzgliederungsorientierten Sichtweise verknüpfen, um die relevanten Prüfungspfade (gerichtete Prozess- vs. Buchungsketten) kontextabhängig ermitteln zu können. Dabei stehen folgende Aspekte im Vordergrund der Überlegungen:
- Die Umlage der auf Jahresabschlussebene festzulegenden Wesentlichkeitsgrenze auf einzelne Geschäftsprozesse (Aktivitäten), um das Kontrollrisiko (Wahrscheinlichkeit, dass die zu beurteilende Kontrolle einen vorhandenen wesentlichen Fehler nicht entdeckt) quantifizieren zu können.
- Die Schwierigkeiten, die sich bei der Integration von Prozess- und Buchhaltungslogik ergeben, wenn Buchungen oder Teilprozesse (Aktivitäten) verzweigt sind. Dabei sind grundsätzlich zwei Typen von Verzweigungen zu unterscheiden: Eine divergierende Verzweigung liegt vor, wenn ein Geschäftsvorfall in mehrere Geschäftsvorfälle zerlegt wird, sodass beispielsweise die Bezahlung einer Lieferung durch mehrere Teilzahlungen erfolgt. Demgegenüber ist die Zahlung mehrerer Rechnungen durch eine Sammelüberweisung als konvergierende Verzweigung zu charakterisieren.
- Der Abgleich zwischen dem aus dem Event Graphen errechneten Soll-Buchungsjournal mit dem prüfungsgegenständlichen Ist-Buchungsjournal. Zur Begründung: Aus einer unzuverlässigen Kontrolle muss nicht notwendigerweise eine fehlerhafte Buchung im Buchungsjournal resultieren. Umgekehrt müssen fehlerhafte Buchungen im Buchungsjournal nicht notwendigerweise auf Kontrolllücken zurückgehen; sie können auch durch nachträgliche Manipulation (Umgehung des internen Kontrollsystems, Management Override) entstanden sein.
Der Beitrag gibt einen Überblick über den Weiterentwicklungsbedarf des Process Mining vom Standpunkt des Abschlussprüfers und kontrastiert diesen mit den Analyseaufgaben anderer Anwendergruppen.
[1] Mochty, L. /Wiese, M.: Die Netzwerkstruktur der Buchhaltung als Grundlage des risikoorientierten Prüfungsansatzes. In: BFuP 2012, H. 5, S. 479-507; Mochty, L.: Journal Entry Testing mittels Buchungsmatrix und Buchungsnetzwerk, 5. Stützpunktveranstaltung des Deggendorfer Forums zur digitalen Datenanalyse, Deggendorf 17. Juni 2013.
Im Rahmen des Vortrags wird die Analyse von Geschäftsprozessen auf die Vorgehensweise bei der Abschlussprüfung beschränkt.
Die Planung der Prüfung von Geschäftsprozessen im Rahmen der Abschlussprüfung folgt dem risikoorientierten Prüfungsansatz für IT-Systemprüfungen. Dabei untersucht der Abschlussprüfer die Arten von Geschäftsvorfällen und deren Erfassung auf den Konten in der Buchführung, um Bereiche festzustellen, bei denen Risiken für wesentliche falsche Angaben in der Rechnungslegung bestehen
Die Erhebung und Prüfung von Geschäftsprozessen umfasst typisiert die folgenden Teilschritte:
- Erhebung der wertmäßig bedeutenden Konten für die im Rahmen der Abschlussprüfung zu untersuchenden Posten der Bilanz sowie der Gewinn- und Verlustrechnung bzw. der Konten, bei denen besondere Risiken, z.B. für das Vorliegen von Fehlern oder Verstößen, vermutet werden
- Bestimmung der diesen Konten zugrunde liegenden Routinetransaktionen bzw. Transaktionsklassen mit ihren Geschäftsprozessen
- Identifikation der IT-Anwendungen, mit denen die Transaktionsverarbeitung in der Rechnungslegung abgebildet wird (Datenfluss von der Erfassung des Geschäftsvorfalls bis zur Abbildung auf dem Hauptbuchkonto)
- Beurteilung der sich aus der IT-gestützten Abwicklung von Routinetransaktionen ergebenden Risiken für die Rechnungslegung
- Erhebung der zur Reduzierung der festgestellten Risiken im besonderen Maße geeigneten Kontrollen
- Beurteilung der Angemessenheit und Wirksamkeit der identifizierten Kontrollen im Rahmen von Aufbau- und Funktionsprüfungen gemäß IDW PS 330
- Festlegung von Art und Umfang der aussagebezogenen Prüfungshandlungen auf Basis der Ergebnisse der Aufbau- und Funktionsprüfungen.
Für die Wirtschaftlichkeit der Abschlussprüfung spielen bei der Geschäftsprozessanalyse Datenanalysen eine wesentliche Rolle, da durch sie Prüfungshandlungen automatisiert und der manuelle Prüfungsumfang zur Gewinnung hinreichender Prüfungssicherheit insgesamt reduziert werden können.
Dr. Frank Honold / Dr. Hermann Heiß
Die Konzernrevision der BMW AG führt seit rund 15 Jahren Datenanalysen durch, um dadurch die Wirksamkeit der Revisionsarbeit für das Unternehmen zu verbessern. Dabei wurde deutlich, dass das Nutzenpotential von Datenanalysen nur dann für das Unternehmen voll ausgeschöpft werden kann, wenn die aus der Recherche gewonnenen Erkenntnisse in eine grundlegende Verbesserung der Fachprozesse überführt werden können. Die Korrektur der erkannten Fehlerfälle ist nur ein Zwischenziel, Endziel ist die Beseitigung der für diese Verdachtsfälle ursächlichen Prozessschwächen. Um diesen Arbeitsauftrag erfolgreich umzusetzen, wird neben umfassender Kompetenz in Sachen „Datenanalyse“ auch eine Vorgehensweise benötigt, wie die Fachstellen als Mitstreiter bei der Beseitigung ihrer eigenen Fehler gewonnen werden können.
Der Vortrag stellt Beispiele der von der Konzernrevision der BMW AG durchgeführten Datenanalysen vor, diskutiert Voraussetzungen und Schritte für eine erfolgreiche Implementierung von Datenanalysen und geht auf Vorgehensweisen ein, mit deren Hilfe die aus der Datenabfrage gewonnenen Erkenntnisse in Nutzenpotenziale des Unternehmens umgewandelt werden können.
oder Wie die Qualität von Daten die Effizienz von Prozessen beeinflusst
Die Qualität von Daten ist kein Selbstzweck!
In diesem Vortrag werden anhand von Praxisbeispielen die Beziehungen zwischen der Qualität von Informationen und deren Auswirkungen auf die Prozesseffizienz dargestellt. Dabei wird einerseits eine methodische Vorgehensweise betrachtet und andererseits auf die technischen Möglichkeiten eingegangen, die für eine nachhaltige Sicherung von Datenqualität unerläßlich sind.
Rekonstruktion von IST-Abläufen mit Hilfe von Process Mining
Celonis wurde 2011 aus der universitären Forschung heraus gegründet und ist alleiniger Anbieter der innovativen Celonis Process Mining Technologie. Process Mining rekonstruiert anhand der im IT-System gespeicherten Datenspuren und unter Berücksichtigung der zeitlichen Komponente, die tatsächlich abgelaufenen Prozesse im Unternehmen. Klare, graphische Darstellungen und die interaktive Oberfläche liefern einen noch nie dagewesenen Level an Transparenz. Aufgrund der hochleistungsfähigen Algorithmen führt Celonis Process Mining Analysen im Big Data Bereich in Echtzeit durch und bietet den Nutzern so die Möglichkeit jederzeit den aktuellen Stand abzurufen. Aufgedeckte Ineffizienzen können durch konkrete Optimierungsmaßnahmen gezielt bekämpft werden, deren Effekt dank der Echtzeitanalyse umgehend überprüft werden kann. Namhafte internationale Konzerne setzen bereits auf Celonis Process Mining als tägliches Analysetool. Durch die MS Office Integration bieten automatisierte Reportings, schnelle, zuverlässige und fehlerfreie Reports, die in vordefiniertem Umfang an festgelegte Nutzerkreise automatisch per E-Mail versendet werden.
Celonis Process Mining kann überall dort eingesetzt werden wo Prozesse ablaufen und ist so in keiner Weise auf Branche oder Einsatzbereich beschränkt. Vom Einzelhandel, über die verarbeitende Industrie bis hin zum Krankenhausmanagement, Celonis Process Mining nutzt die bereits vorhandenen Daten eines Unternehmens, um die tatsächlich gelebten Prozesse im Unternehmen sichtbar zu machen - bis hin zum Einzelfall.
- das notwendige aber ungeliebte Kind
Stichproben machen einsam!
Diese Feststellung gilt mindestens für denjenigen, der darüber schreibt oder referiert. Im Gegensatz zur Literatur und zu manchen Vorschriften, wird das Thema selten geliebt und wer kann, macht einen großen Bogen um dieses Thema. Das beginnt schon in der universitären Ausbildung und setzt sich bis in das Berufsleben fort. Warum ist dies so? Oft liegt es an sperrigen und nicht einheitlichen Begriffen. Oft liegt es daran, dass das Thema gerade für Praktiker nicht gerade didaktisch einfach dargestellt wird. In vielen Fällen ist die programmtechnische Umsetzung einfach lieblos. Erklärungen fehlen, oder Erklärungen sind falsch oder so gehalten dass diese nutzlos sind. Das größte Defizit für den Praktiker stellt aber die fehlende Prozessunterstützung dar. Der Umgang mit Stichproben führt regelmäßig zu einer Vielzahl von Fragen, die der Praktiker kennen und beantworten muss. Im Rahmen dieses Vortrags soll am Beispiel des Monetary Unit Verfahrens der gesamte Prozess mit den zu lösenden Fragen idealtypisch dargestellt werden. Damit soll deutlich werden, dass zum Thema Stichproben zwar theoretisch seit langem alles gesagt wurde, aber vielleicht in einer für den Praktiker unbekannten Sprache die es zu modifizieren gilt.
Stichprobenziehung mit ACL
Darstellung eines Werkzeugansatzes am Beispiel des Monetary Unit Sampling Verfahrens
Inhaltsangabe zum Workshop
- Grundlegendes zur Stichprobenauswahl
- Einordnung der Stichprobenprüfung in den Prüfungsprozess
- Varianten von Stichprobenverfahren
- Das Monetary Unit Sampling in ACL
- Monetary Unit Sampling bei Überbewertungen (Grundsätzliches Verfahren)
- Problemstellungen bei Unterbewertungen und Mischbewertungen (Über- und Unterbewertungen)
- MUS auch für Bilanzposten der Passivseite?
- Zusammenfassung