Vorträge des DFDDA 2019

Der Spagat des Abschlussprüfers

zwischen pflichtgemäßem Ermessen und evidenzbasierten Datenanalysen

Prof. Dr. Ludwig Mochty
Lehrstuhl für Wirtschaftsprüfung, Unternehmensrechnung und Controlling, Universität Duisburg-Essen

Durch die Abschlussprüfung soll die Verlässlichkeit der in Jahresabschluss und Lagebericht enthaltenen Informationen bestätigt und insoweit deren Glaubhaftigkeit erhöht werden. Die Abschlussprüfung ist mit einer kritischen Grundhaltung zu planen und durchzuführen; die erlangten Prüfungsnachweise sind kritisch zu würdigen. Für ein positives Prüfungsurteil sind ausreichende und angemessene Prüfungsnachweise dafür zu erbringen, dass der Abschluss mit hinreichender Sicherheit frei von wesentlichen Falschaussagen ist.
Die einschlägigen Prüfungsstandards sind so gestaltet, dass es grundsätzlich möglich ist, die gesamte Abschlussprüfung allein auf Basis pflichtgemäßen Ermessens durchzuführen. In den letzten Jahrzehnten wurden seitens der Prüfungstheorie große Anstrengungen unternommen, die Effizienz und Effektivität der Prüfungsnachweiserbringung (Evidenz) zu verbessern. Insbesondere wurde für die Durchführung aussagebezogener (analytischer und stichprobengestützter) Prüfungshandlungen ein breites Spektrum an statistisch fundierten Datenauswahl- und Datenanalyseverfahren entwickelt. In der Medizin und den Naturwissenschaften haben vergleichbare Methoden zu einem großen Erkenntnisgewinn beigetragen. Demgegenüber zeigt sich die Prüfungspraxis gegenüber derartigen Verfahrensvorschlägen äußerst zurückhaltend. Galileis Motto „Messen, was messbar ist, und messbar machen, was nicht messbar ist!“ ist nicht die zentrale Handlungsmaxime. Es ist ein offenes Geheimnis, dass statistisch fundierte Verfahren bei der Abschlussprüfung kaum eingesetzt werden, obwohl alle hard- und softwaretechnischen Voraussetzungen zur Datenübernahme und -auswertung gegeben sind. Vielmehr sind Versuche zu beobachten, durch übermäßige Vereinfachung von statistischen Methoden Handlungsempfehlungen zu konzipieren, die dem Praktiker als Daumenregeln an die Hand gegeben werden, sodass er weiterhin nicht-statistisch (meist gestützt auf die Grundrechenarten und den Dreisatz) prüfen kann.

Diese Entwicklung ist vorerst ein Hindernis auf dem Weg zu dem viel diskutierten „Auditing 4.0“. Denn die mit diesem Schlagwort in Verbindung stehenden „künstlich intelligenten“ maschinellen Lern- und Datenanalyseverfahren, die unter Beiziehung von „Big Data“ den Prüfungsprozess bereichern sollen, sind nur auf Basis der multivariaten Statistik verständlich. Dies wird im Vortrag an dem herausfordernden Beispiel der Prüfung von Umsatzerlösen demonstriert. Deshalb sollte zuerst mit Hilfe der konventionellen Statistik die Infrastruktur geschaffen werden, um den Einsatz fortgeschrittener Methoden („Advanced Analytics“, „Predictive Analytics“ u.ä.) in den Köpfen der Beteiligten vorzubereiten. Dabei kommt dem Zusammenspiel von pflichtgemäßem Ermessen (insbesondere die Vorgabe des Untersuchungsziels und der betriebswirtschaftlich in Frage kommenden Variablen sowie die zutreffende Interpretation der Untersuchungsergebnisse) und evidenzbasierten Datenanalysen eine besondere Bedeutung zu. Andernfalls stellt sich die Frage: Wie soll ein Abschlussprüfer, der grundlegende statistische Methoden (Regressions- und Zeitreihenanalysen, statistische Stichprobenverfahren) wegen ihrer Komplexität ablehnt, Vertrauen in Analyseergebnisse haben, deren Zustandekommen nur für Datenanalysespezialisten verständlich ist? Muss der Anstoß, fortgeschrittene evidenzbasierte Datenanalysen im Rahmen der Abschlussprüfung tatsächlich einzusetzen, etwa von außen kommen: von den Geprüften selbst, von ihrer internen Revision oder ihren Steuerprüfern?