Vorträge des DFDDA 2019

Prof. Andreas V. Georgiou Ph.D.

Statistiken spielen heutzutage in den meisten Bereichen der Gesellschaft eine große Rolle: in der staatlichen Führung und anderen politischen und sozialen Prozessen, in der Wirtschaft, in der Entwicklung von Wissenschaft und Technologie sowie von Wissen im Allgemeinen. Die allgegenwärtige Präsenz von Statistiken und ihr Einfluss machen sie auch anfällig für eine Vielzahl von Problemen (z.B. Missbrauch oder Manipulation), die schwer festzustellen und zu kontrollieren sind. Im Bereich der Statistikproduktion, die die amtliche Statistik konstituiert, besteht zumindest die Möglichkeit, institutionelle Rahmenbedingungen und Prozesse zu schaffen, die darauf abgestellt sind, die Anwendung statistischer und ethischer Grundsätze bei der Erstellung dieser Art von Statistiken zu gewährleisten. Die Anerkennung der amtlichen Statistik als globales öffentliches Gut hat jedoch weitreichende Folgen und weist den Weg zu substantiellen institutionellen Reformen auf nationaler und internationaler Ebene, die notwendig sind, damit die Integrität dieses Zweiges der statistischen Praxis auch in Zukunft nachhaltig gewährleistet werden kann. In anderen Gebieten der statistischen Praxis, wie beispielsweise in Wissenschaft und Wirtschaft, sind die Herausforderungen für eine integere statistische Praxis aufgrund der Vielzahl dezentraler statistischer Praktiker und der vielfältigen Rahmenbedingungen für die statistische Praxis in mancher Hinsicht noch größer. Solche Praktiker sind derzeit weitgehend auf ihre eigenen Mittel angewiesen, um eine qualitativ hochwertige statistische Praxis betreiben zu können. In diesem Zusammenhang ist es für die Gesellschaft unerlässlich, die intensive Pflege einer statistischen Kultur durch die Verbreitung, Erforschung und Unterstützung berufsständischer statistischer Ethik (so wie in der Erklärung des Internationalen Statistischen Instituts oder in den Leitlinien der American Statistical Association dargelegt) methodisch zu verfolgen. Diese Bemühung allein würde jedoch wahrscheinlich nicht ausreichen; weitere Schritte sind zur Ergänzung und Unterstützung erforderlich. Wir müssen uns sorgfältig Gedanken über institutionelle Einrichtungen und Modalitäten machen, die von akademischen Instituten, Forschungseinrichtungen, Unternehmen, politischen und sozialen Organisationen (und allen anderen Einrichtungen, in denen es statistische Praktiker gibt) übernommen werden könnten, um eine Kultur der Integrität und Verantwortlichkeit in der statistischen Praxis zu fördern.

 

Prof. Dr. Gerd Gigerenzer
Direktor Harding Zentrum für Risikokompetenz
Max-Planck-Institut für Bildungsforschung

Müssen wir überhaupt noch selbst denken und entscheiden, da Google, Alexa oder Siri uns ja sagt, was wir tun sollen? Denken braucht ja Energie. Wie viele Schritte man heute noch gehen muss, wann man ins Bett gehen soll und wie gut man sich gerade fühlt – all das sagen einem heute smarte Armbänder. Und Parship.de berechnet auch noch den idealen Partner fürs Leben. In Medizin und der Finanzwelt möchte man die begrenzte menschliche Intelligenz durch grenzenlose Künstliche Intelligenz und Big Data ersetzen. IBM’s Watson steht bereit. In diesem Vortrag werde ich argumentieren, dass man in einer digitalen Welt noch mehr mitdenken muss als zuvor um die Fernbedienung für die Steuerung des eigenen Verhaltens und der eigenen Werte wieder selbst in die Hand zu nehmen.

Knut Fischer
diSCIS GmbH CEO

Mit Hilfe künstlicher Intelligenz (KI) ist es möglich Fachdokumente maschinell zu lesen und auch zu interpretieren. Dies geschieht im gleichen Umfang und der gleichen Qualität wie es der Mensch als Fachexperte durchführt. Allerdings mit gleichbleibender Qualität und in wesentlich höherer Geschwindigkeit. Das lässt auch die nötige Skalierbarkeit zu, um Engpässe bei saisonalem Geschäft zu vermeiden.

Der hier vorgestellte Einsatzbereich ist die hochgradig manuelle Tätigkeit von Bilanzanalysten einer Bank oder Leasing Gesellschaft. Jahresabschlüsse oder Betriebswirtschaftliche Auswertungen (BWAs) können mit Hilfe neuster Technologien vollautomatisch in die Risikostrukturen der Ratingsysteme überführt werden. Ein wesentlicher Schritt in die digitale Transformation.

Stephan Rickert
Finanzamt Wismar, Betriebsprüfungsstelle
Betriebsprüfer und Dozent für neue Prüfungstechniken

Die digitale Ziffernanalyse, welche die Finanzverwaltung beispielsweise im Rahmen der Summarischen Risikoprüfung (SRP) zur Aufdeckung von Manipulationen in Risikodaten einsetzt, hat bereits zu cleveren Umgehungsmanövern auf Seiten der Steuerpflichtigen geführt. In dem Bewusstsein, dass die Betriebsprüfung zunehmend die Ziffern auf der sog. Einerstelle auf Gleichverteilung untersucht, ist der ein oder andere Manipulator auf die Idee gekommen, durch einen geschickten Eingriff in die Ziffernhäufigkeiten für eine annähernde Gleichverteilung zu sorgen. Die Analyse des Iterationsverhaltens von Ziffern bietet die Möglichkeit, einige Umgehungsmanöver zu enttarnen. Die Iterationsanalyse betrachtet das Auftreten der einzelnen Ziffern unter dem Gesichtspunkt der zeitlichen Abfolge. Sie basiert auf der geometrischen Verteilung und kann Eingriffe nachweisen, welche dieses Verteilungsmuster signifikant zerstören. Sobald die Betriebsprüfung die Iterationsanalyse häufiger einsetzt, ist es nur eine Frage der Zeit bis auf der Gegenseite neue Umgehungsmanöver kreiert werden. Dann wäre erneut die Finanzverwaltung am Zuge, modifizierte Prüftechniken zu entwickeln.

Wie Datenanalyse und künstliche Intelligenz die Abschlussprüfung und den Berufstand verändern werden

Axel Zimmermann
Geschäftsführer Audicon GmbH

Der Begriff ‚Künstliche Intelligenz‘ macht seit vielen Jahren die Runde. Nun scheint er auch die Wirtschaftsprüfung erreicht zu haben. Dabei kämpft die Branche noch damit, scheinbar einfache Probleme bei der Beherrschung von Massendaten zu lösen. Was hat es mit künstlicher Intelligenz auf sich, welche Bedeutung hat sie für die Wirtschaftsprüfung und was bedeutet sie insgesamt für den Berufstand. Dabei gilt es die Chancen aber auch die Herausforderungen auszuloten. Und bei aller Begeisterung für Technologie gilt es, den Menschen, dem die Technologie dienen soll, auf die Reise mitzunehmen.

zwischen pflichtgemäßem Ermessen und evidenzbasierten Datenanalysen

Prof. Dr. Ludwig Mochty
Lehrstuhl für Wirtschaftsprüfung, Unternehmensrechnung und Controlling, Universität Duisburg-Essen

Durch die Abschlussprüfung soll die Verlässlichkeit der in Jahresabschluss und Lagebericht enthaltenen Informationen bestätigt und insoweit deren Glaubhaftigkeit erhöht werden. Die Abschlussprüfung ist mit einer kritischen Grundhaltung zu planen und durchzuführen; die erlangten Prüfungsnachweise sind kritisch zu würdigen. Für ein positives Prüfungsurteil sind ausreichende und angemessene Prüfungsnachweise dafür zu erbringen, dass der Abschluss mit hinreichender Sicherheit frei von wesentlichen Falschaussagen ist.
Die einschlägigen Prüfungsstandards sind so gestaltet, dass es grundsätzlich möglich ist, die gesamte Abschlussprüfung allein auf Basis pflichtgemäßen Ermessens durchzuführen. In den letzten Jahrzehnten wurden seitens der Prüfungstheorie große Anstrengungen unternommen, die Effizienz und Effektivität der Prüfungsnachweiserbringung (Evidenz) zu verbessern. Insbesondere wurde für die Durchführung aussagebezogener (analytischer und stichprobengestützter) Prüfungshandlungen ein breites Spektrum an statistisch fundierten Datenauswahl- und Datenanalyseverfahren entwickelt. In der Medizin und den Naturwissenschaften haben vergleichbare Methoden zu einem großen Erkenntnisgewinn beigetragen. Demgegenüber zeigt sich die Prüfungspraxis gegenüber derartigen Verfahrensvorschlägen äußerst zurückhaltend. Galileis Motto „Messen, was messbar ist, und messbar machen, was nicht messbar ist!“ ist nicht die zentrale Handlungsmaxime. Es ist ein offenes Geheimnis, dass statistisch fundierte Verfahren bei der Abschlussprüfung kaum eingesetzt werden, obwohl alle hard- und softwaretechnischen Voraussetzungen zur Datenübernahme und -auswertung gegeben sind. Vielmehr sind Versuche zu beobachten, durch übermäßige Vereinfachung von statistischen Methoden Handlungsempfehlungen zu konzipieren, die dem Praktiker als Daumenregeln an die Hand gegeben werden, sodass er weiterhin nicht-statistisch (meist gestützt auf die Grundrechenarten und den Dreisatz) prüfen kann.

Diese Entwicklung ist vorerst ein Hindernis auf dem Weg zu dem viel diskutierten „Auditing 4.0“. Denn die mit diesem Schlagwort in Verbindung stehenden „künstlich intelligenten“ maschinellen Lern- und Datenanalyseverfahren, die unter Beiziehung von „Big Data“ den Prüfungsprozess bereichern sollen, sind nur auf Basis der multivariaten Statistik verständlich. Dies wird im Vortrag an dem herausfordernden Beispiel der Prüfung von Umsatzerlösen demonstriert. Deshalb sollte zuerst mit Hilfe der konventionellen Statistik die Infrastruktur geschaffen werden, um den Einsatz fortgeschrittener Methoden („Advanced Analytics“, „Predictive Analytics“ u.ä.) in den Köpfen der Beteiligten vorzubereiten. Dabei kommt dem Zusammenspiel von pflichtgemäßem Ermessen (insbesondere die Vorgabe des Untersuchungsziels und der betriebswirtschaftlich in Frage kommenden Variablen sowie die zutreffende Interpretation der Untersuchungsergebnisse) und evidenzbasierten Datenanalysen eine besondere Bedeutung zu. Andernfalls stellt sich die Frage: Wie soll ein Abschlussprüfer, der grundlegende statistische Methoden (Regressions- und Zeitreihenanalysen, statistische Stichprobenverfahren) wegen ihrer Komplexität ablehnt, Vertrauen in Analyseergebnisse haben, deren Zustandekommen nur für Datenanalysespezialisten verständlich ist? Muss der Anstoß, fortgeschrittene evidenzbasierte Datenanalysen im Rahmen der Abschlussprüfung tatsächlich einzusetzen, etwa von außen kommen: von den Geprüften selbst, von ihrer internen Revision oder ihren Steuerprüfern?

Von der KI-Forschung zur praktischen Anwendung

Siegfried Köstlmeier
Doktorand Universität Regensburg und Geschäftsführer Pasigma GmbH

Sämtliche finanzwissenschaftliche Forschungsbeiträge müssen letztlich einer empirischen Untersuchung standhalten. Mathematische und statistische Modelle sind dabei unerlässliche Werkzeuge zur Analyse von Kapitalmarktentwicklungen. Vielfach wird jedoch auch darauf hingewiesen, dass die meisten der entdeckten Effekte auch das Ergebnis von Data Mining und p-Hacking sein könnten. Neueste technologische Entwicklungen der Datenanalyse und der KI-Methoden erfordern daher eine kritische Betrachtung, wenn wissenschaftliche Modelle erstmalig in den praktischen Anwendungsbereich in Unternehmen transferiert und verwendet werden.

Am Beispiel von Aktienrückkäufen in Deutschland zeigt der Referent, wie akademische Modelle von Managern und Wirtschaftsprüfern verwendet werden, um fundierte Entscheidungen hierzu treffen zu können. Insbesondere wird deren praktische Umsetzung und der Einsatz von KI-Methoden erläutert. Er weist darauf hin, welche Herausforderungen zu meistern sind, damit wissenschaftliche Modelle, statistische Methoden und KI-Anwendungen in der Praxis umgesetzt werden können.