banner2.jpg

Wann beginnt die Zukunft? – Neue Technik braucht neues Denken

Das Deggendorfer Forum für digitale Datenanalyse fand zum zweiten Mal in virtueller Form statt

(Autor: Rainer Klüting)

Zum zweiten Mal hat der Jahreskongress des „Deggendorfer Forum für digitale Datenanalyse“ (DFDDA) nicht als große Präsenzveranstaltung stattgefunden. Wie schon im vergangenen Jahr traf man sich, herzlich willkommen geheißen vom Präsident der Technischen Hochschule Deggendorf, Prof. Dr. Peter Sperber, zu einer verkürzten und virtuellen Veranstaltung am Bildschirm. Der Veranstalter DFDDA e.V., der seinen Sitz an der Technischen Hochschule Deggendorf hat, plant zwar nach Aussage seines Vorsitzenden Prof. Dr. Georg Herde, das interessierte Publikum bald wieder nach Deggendorf einzuladen, vielleicht sogar noch im Jahr 2021. Doch Herde und seine Mitstreiter wollten die Gespräche über die Themen des Vereins – aktuelle Entwicklungen und Debatten im Bereich der Wirtschafts- und Steuerprüfung – nicht auf eine noch immer ungewisse Zukunft verschieben.

Denn auch in der Pandemie stehen die prüfenden Berufe vor ständig neuen Herausforderungen. Neue Techniken und neue Verfahren entwickeln sich und wollen bewertet und eventuell in die Prüfungspraxis übernommen werden. Deshalb lag der Schwerpunkt des Virtuellen Forums 2021 auf der Anwendung von Verfahren der Datenanalyse. „Das Forum 2021“, so hieß es in der Ankündigung, „will in diesem Sinne zur Orientierung beitragen.“

Drei Beiträge standen auf dem Programm, ergänzt jeweils durch eine Fragerunde am Ende. Alexander Dietzel, Lehrbeauftragter im Fach Controlling und Geschäftsführer der Instat GmbH in Bielefeld | institute of applied statistics stellte neue Methoden vor, mit denen sich in Massendaten kritische Einzelfälle aufspüren lassen. Stephen McIntosh, Direktor bei der Intaria AG in München, zeigte, wie der Einsatz künstlicher Intelligenz im Prüfverfahren helfen kann, Problemfelder aufzudecken und die Qualität der Prüfung insgesamt zu verbessern. Und Thomas Neubert, Betriebsprüfer IT beim Finanzamt Halle (Saale) machte den Bedarf an neuen Verfahren und Methoden der Prüfung plastisch, indem er den Weg nachzeichnete, den die Prüfungspraxis im Laufe der Jahre genommen hat, von der Plausibilisierung einer summarischen Bilanz über die Analyse von Geschäftsprozessen anhand von Zehn- oder Hunderttausenden von Einzeldaten.

Prüfer haben es heute oft mit Massendaten zu tun die sich, so der erste Referent Alexander Dietzel, nur schwer plausibilisieren lassen. Der Prüfer könne zwar Stichproben genauer unter die Lupe nehmen. Doch ob er dabei auf fehlende oder falsche Angaben stoße, sei „reine Glücksache“. Seinen Vortrag hatte er unter die Überschrift „Strukturbrüche in dynamischen Systemen – auf der Suche nach Stressindikatoren in Massendaten“ gestellt. Dietzel stellte einen Algorithmus vor, der solche Stressindikatoren liefert, also Hinweise auf Bereiche in den Ausgangsdaten, die nicht zum Verlauf einer Zeitreihe passen, die demnach in dieser Zeitreihe „Strukturbrüche“ darstellen.

Dietzel erläuterte verschiedene Arbeitsschritte, die bei solch einer Analyse helfen können. Das könne damit anfangen, Einzelbuchungen, wenn sie auf ein gemeinsames Entstehungsprinzip zurückgehen, wochenweise aufzusummieren und so eine Zeitreihe zu erzeugen, eine Reihe von Zahlen mit gleichen zeitlichen Abständen. Zur Analyse solcher Zeitreihen bietet die Statistik unterschiedliche Verfahren an. Dietzel stellte ein Zeitreihenmodell vor, dass es erlaubt, Signal- und Rauschanteil der Daten zu trennen, das heißt, ein Maß dafür zu ermitteln, wie hoch der zufällige Anteil der Schwankungen der Beträge ist. Dieser irreguläre Anteil der Daten eigne sich als „ein Gradmesser für das inhärente Risiko in den Massendaten“ und könne „im Rahmen der Risikofrüherkennung“ eingesetzt werden. Sein Angebot an die Zuhörer und Zuschauer: „Senden sie uns ihre Zeitreihen, wir suchen nach Stressindikatoren darin.“

Stephen McIntosh stellte eine ausgefeilte Software vor, die nicht zuletzt Risikopunkte in einer Bilanz sogar automatisch finden kann. Dazu setzt die Software Verfahren der künstlichen
Intelligenz ein. „Einsatz einer KI-basierten Datenanalyse-Software in einer mittelständischen WP-Praxis“ war der Titel seines Vortrags, in dem er die Leistungsfähigkeit der Software AI-Auditor der Firma MindBridge anhand von Beispielen demonstrierte.

McIntosh bewertete die Software nach drei Punkten: Datenimport, Usability und Datenanalyse. Der erste Punkt, der Import von Daten aus unterschiedlichen anderen Systemen, gelang am Ende in allen Fällen. Dazu mussten aber Hürden überwunden werden, teils auch mit Hilfe des Herstellers der Software oder durch eine selbst erstellte Konvertierungsroutine. Auch wird der AI Auditor mit einem ausgefeilten Kontenrahmen geliefert, dem vorhandene Konten erst zugeordnet werden mussten, das sogenannte Mapping.
Die Usability bewertete McIntosh positiv. Die Software bewertet jeden einzelnen Geschäftsvorfall mit 29 Algorithmen, so genannten „Control Points“, und ermittelt daraus eine Risikoeinschätzung. Ergebnisse und Risikoanalysen werden grafisch auf vielfältige Weise visualisiert. So kann man mehrere Vorjahresanalysen einspielen und erhält dann einen „Erwartungskorridor“, in dem die aktuelle Analyse sich bewegen sollte. McIntosh hob hervor, dass die Daten auch auf Vollständigkeit geprüft würden. Programmierkenntnisse seien für die Nutzung der Software nicht notwendig.

Bei der Datenanalyse arbeitet „MindBridge“ mit regelbasierten, statistischen und Machine-Learning-Algorithmen. Zu letzteren gehört unter anderem eine KI-generierte Beurteilung von „unusual amounts“, also auffälligen, aus dem Rahmen fallenden Buchungsvorgängen. Welche Analysen zu so einer Einstufung geführt haben, kann sich der Nutzer bis hinunter zu Einzelbuchungen ansehen. Weitere Machine-Learning-Algorithmen biete die Software zu den Stichwörtern Flow Analysis, Outlier Anomaly Score, Expert Score und Rare Flow.
Ingesamt, so McIntosh, konfrontiere die Software Nutzer mit der Herausforderung der „Black-Box-Problematik“: „Man muss die angezeigten Daten verstehen und analysieren können.“ Wenn das gelinge, sei die Software eine „Antwort auf aktuelle Qualitätsdiskussionen“. In seinem Unternehmen habe sie bereits zu einer Qualitätsverbesserung geführt.
Wie „die Betriebsprüfung im Wandel der Zeit“ ihr Gesicht verändert hat, spiegelt sich für Thomas Neubert nicht zuletzt in der Leistungsfähigkeit von Rechnern wider. Gemessen wird diese Leistung in Gigaflops, und 1961, so Neubert, kostete so ein Gigaflop 145 Milliarden US-Dollar. Im Jahr 2017 lag der Preis bei drei Cent. Als Maß dafür, wie sich diese Entwicklung in der Prüfungspraxis niedergeschlagen hat, wählte Neubert die Zahl der Belege, die geprüft werden mussten und müssen; und als Beispiel diente ihm eine Fleischereikette mit mehreren Filialen. Am Anfang, so Neubert, „haben wir uns eine Summe aus mehreren Kassen aus mehreren Filialen, zusammengefasst auf einem Beleg, angeschaut.“ Dort stand eine Betragssumme der Tageseinnahmen von 387.000 Euro. Die Frage war: Sind diese 387.000 Euro versteuert oder nicht? Mit Prüfen, so Neubert, habe das nicht allzu viel zu tun.
Neubert: „Wir verfolgen die digitale DNA rückwärts.“ Auf der nächsten Stufe der Verfeinerung der Datenanalyse stehe die Prüfung auf Bon-Ebene bei den Zweigstellen. 9024 Datensätze pro Tag seien nun zu prüfen. Eine Ebene weiter oben liegen die Daten aller Kassen aus allen Zweigstellen vor, zusammen 22.421 Datensätze pro Tag, und auf der Ebene der Einzelpositionen aller Bons aus allen Zweigstellen kommen pro Tag 133.000 Datensätze zusammen.

Zu den Herausforderungen, die in dieser Steigerung liegen, komme, so Neubert, hinzu, dass dem Prüfer zunächst unbekannt sei, welche Art von Daten er von der Software bekomme, die die Daten bereitstelle. Am Ende bekomme er vielleicht ein Dutzend Einzeldateien, die er sich mit Hilfe des ER-Diagramms des Softwareherstellers zu einer Komplettdatei zusammenstellen müsse.

Und nicht zuletzt nimmt die Zahl der zu prüfenden DV-Systeme zu. „Wir reden nicht nur über Kassen, sondern auch über intelligente Küchengeräte.“ Sein Beispiel: Wenn in einer Großküche der Kühlschrank automatisch Nachbestellungen reguliere, dann trage er zu Geschäftsprozessen bei und werde damit „ein steuerlich relevantes Datensystem“. Erst im Anfangsstadium seien Techniken zur Auswertung digitaler Handels- und Geschäftsbriefe, die selbst in hoher Anzahl anfallen könnten und per Netzwerk- und Textanalyse ausgewertet werden müssten.

Vom Einzelbeleg zur Zukunft automatischer Auswertung elektronischer Postfächer: Mit diesem Blick auf die Dynamik der Anforderungen richtete Neubert sich auch an die Branche der Prüfer. Denn den Innovationen auf der Seite der Geprüften muss angepasste Innovation auf der Seite der Prüfer entsprechen.