Jahreskongress "Deggendorfer Forum" in Kurzform und per Video
(Autor: Rainer Klüting)
Einmal im Jahr treffen sich an der Technischen Hochschule Deggendorf Experten für Steuer- und Bilanzprüfung zu einer Fachkonferenz, dem „Deggendorfer Forum zur digitalen Datenanalyse“. Wegen der Corona-Pandemie musste im April das 16. Forum auf 2021 verschoben werden. Doch die Veranstalter wollten die Diskussionen nicht ganz abreißen lassen: Am Mittwoch, 2. Dezember, traf man sich per Video auf leerem Campus. Auf dem Programm: Bilanzprüfung, Künstliche Intelligenz und „Fakes und Fakten“.
Es sei in diesem Jahr eine „besondere Herausforderung“, mit der treuen Gemeinde von Finanzexperten in Kontakt zu bleiben, die die jährlichen Forumsveranstaltungen besuchten, sagte der Gründer und Organisator der Konferenzreihe, Prof. Dr. Georg Herde von der TH Deggendorf, zur Eröffnung der knapp dreistündigen Abendveranstaltung. Umso mehr freute sich der Präsident der Hochschule, Prof. Dr. Peter Sperber, in einem Grußwort über die hohe Zahl der angemeldeten Teilnehmer (150). Herde erinnerte daran, dass die Hochschule „seit zwanzig Jahren Erfahrungen mit der Lehre auch über das Medium Video“ habe, war sich aber mit Sperber einig, dass ohne persönliche Präsenz „vieles fehlt“. „Hochschule ist eigentlich ein Debattierclub“, sagte Sperber.
Drei Referenten waren mit einem – zuvor aufgezeichneten – Kurzvortrag und anschließender Live-Schaltung zur Diskussion präsent. Alle drei waren Kennern der Forumsveranstaltungen als kritische Beobachter aktueller Entwicklungen gut bekannt.
Den Anfang machte Prof. Dr. Ludwig Mochty von der Universität Duisburg-Essen mit einer Kritik an einer bestimmten, häufig verwendeten Kontrollberechnung aus der Buchhaltung. Unternehmen wollen wissen, wie es mit ihrer finanziellen Liquidität steht. Dazu berechnen sie, wie lange es dauert, bis eine Investition, etwa zur Herstellung eines Produkts, wieder zu einer Einnahme führt, etwa weil ein Kunde seine Rechnung bezahlt. Doch wer diese sogenannte Geldumschlagsdauer nach bekannten Lehrbuchverfahren berechne, könne zu unrealistischen Ergebnissen kommen, erklärte der Experte für Wirtschaftsprüfung, Unternehmensrechnung und Controlling. Woran das liegt, veranschaulichte er mit einer bewusst plakativ gewählten Analogie. Viele Bauprojekte, etwa der neue Berliner Flughafen BER, dauerten erheblich länger als anfangs vorgesehen, so Mochty. Das passiere, „weil man Mittelwerte schätzt. Der Mittelwert liegt in der Mitte!“, fügte er ironisch hinzu. Informativer wäre, so Mochty, zu ermitteln, wann 90 oder 95 Prozent eines Projektes abgeschlossen seien. Er schlug eine Änderung des Berechnungsverfahrens vor, die durch moderne Methoden der Datenanalyse möglich wird.
Mit „Fakes und Fakten“ hat Ernst-Rudolf Töller sich beruflich intensiv beschäftigt. Der Mitorganisator des Deggendorfer Forums ist Mathematiker und war langjähriger Partner der BDO AG Wirtschaftsprüfungsgesellschaft. Zur „Datenanalyse in schwierigen Zeiten“ gehören für ihn höhere Anforderungen an Prüfungsverfahren, aber auch neue, erweiterte Möglichkeiten, Strukturen in Daten zu finden und aufzudecken. „Wissenschaft und Technik setzen die Maßstäbe“, so Töller. So werde etwa dort, wo früher Belege unterschiedlicher Art von Hand gesammelt worden seien, heute immer häufiger nach der Echtheit von Belegen und dem Geschäft hinter diesen Belegen gefragt. Die Frage „Sind Belege die Lösung oder das Problem?“ beantwortete er damit, dass moderne Technik erlaube, „die vollständige Spur“ eines Geschäftsvorgangs so abzulegen, dass sie „nicht mehr manipulierbar“ sei. Töller zeigte als Beispiel einen Auszug aus einer Adressdatenbank, in der viele Einträge nur sinnlose Zeichen- und Buchstabenfolgen enthielten. Mathematische Modelle könnten eine Art „Abstand“ zwischen solchen Einträgen und realen Adresseinträgen berechnen und so manche Auffälligkeit auch in großen Datenmengen finden. „Globale Strukturen werden in großen Zahlen von Datensätzen sichtbar“, sagte Töller, schränkte aber ein, dass Algorithmen, die solche Arbeiten erledigen könnten, immer auf die speziellen Daten zugeschnitten sein müssten. Patentlösungen gebe es nicht, auch Künstliche Intelligenz sei dies nicht.
Mit Künstlicher Intelligenz (KI) beschäftigt sich Dominik Fischer, der in Deggendorf und Magdeburg studiert hat und derzeit an der TU München seine Doktorarbeit verfasst. Während das Stichwort KI oft mit der Analyse großer Datenmengen verbunden wird, stellte Fischer in seinem Vortrag „KI ohne Big Data“ vor. Gemeint sind Verfahren, mit denen optimale oder möglichst gute Lösungen für komplexe Entscheidungen gesucht werden. Eingesetzt werden dazu sogenannte Genetische Algorithmen, die nach Verfahren arbeiten, die der Natur und der natürlichen Evolution der Lebewesen abgeschaut sind. Wer zum Beispiel ein Auto kaufen will, hat möglicherweise ein ganzes Paket von Wünschen: Farbe, Größe, Ausstattung, Preis und anderes sollen optimal zusammenpassen. Genetische Algorithmen stellen zunächst zufällig zusammenpassende Lösungen zusammen und schicken diese Lösungen in einen Auswahlprozess. Aus dieser „Selektion“ gehen einige der gefundenen Lösungen als passend hervor, andere nicht. Manche „Überlebenden“ werden miteinander gemischt, andere zufällig leicht verändert. Es entstehen neue denkbare Lösungen, die weitere Stufen von Selektion, Mischung und Mutation durchlaufen. Nach vielen „Generationen“ findet sich dann unter Umständen eine kleine Auswahl sehr guter oder sogar optimaler Lösungen.
In einer abschließenden Diskussionsrunde zu allen Vorträgen mahnte Fischer: „Wir arbeiten viel mit Zahlen. Wir sollten uns immer bewusst bleiben, dass dahinter eine Realität steckt.“ Und Mochty warnte, dem „Schraubendreher-Syndrom“ zu verfallen: „Ich habe einen Schraubendreher und suche nach der passenden Schraube.“ Es gehe vielmehr darum, Probleme zu erkennen und dafür Lösungen zu finden.
Autor: Rainer Klüting