An der TH Deggendorf loten Experten die Möglichkeiten und Grenzen des Einsatzes Künstlicher Intelligenz und statistischer Methoden aus
(Autor: Rainer Klüting - Fotograf: Mathias Adam)
Computer durchstöbern mit raffinierten Algorithmen Steuererklärungen, Unternehmensbilanzen oder Daten aus statistischen Erhebungen. Sie finden Fehler, Manipulationen und Tendenzen und sind damit zunehmend an schwerwiegenden Entscheidungen beteiligt. Kann der Mensch Algorithmen und sogenannter Künstlicher Intelligenz das Denken überlassen? Wo kann das nützlich sein, wo gefährlich? „Algorithmen – Werkzeuge eines neuen Denkens?“ Über diese Frage diskutierten Ende letzter Woche internationale Experten auf Einladung des 15. „Deggendorfer Forum für digitale Datenanalyse“ (DFDDA) unter der Leitung von Prof. Dr. Georg Herde von der TH Deggendorf.
Bildergalerie vom 15. Deggendorfer Forums für digitale Datenanalyse:
Hinter vielen Methoden der Künstlichen Intelligenz (KI) stecken Mathematik und Statistik. Deshalb waren Statistik und der Kampf gegen Manipulationen und Missverständnisse statistischer Aussagen ein zentrales Thema der meisten Vorträge und Diskussionen des anderthalbtägigen „Forums“. Zwei prominente Gastredner hatten die Organisatoren zu diesem Thema eingeladen. „Statistische Ethik und der Weg voran in der statistischen Praxis“ hatte der erste Gastredner seinen Vortrag überschrieben. Prof. Andreas V. Georgiou hat nicht nur praktische Erfahrung im Erstellen komplexer Statistiken, er ist auch ganz persönlich von den Konflikten betroffen, die entstehen können, wenn jemand versucht, eine Statistik nach international anerkannten Kriterien und ethischen Prinzipien aufzustellen. Georgiou hatte viele Jahre beim internationalen Währungsfonds Erfahrungen im Umgang mit Finanzdaten gesammelt, bevor er 2010 die Leitung des nationalen Statistikamtes in seiner Heimat Griechenland übernahm. Die „Hellenic Statistical Authority“ (ELSTAT) berechnete unter seiner Leitung die staatlichen Finanzstatistiken des Landes neu und orientierte sich dabei vollständig am EU-Recht. Das Ergebnis waren stark nach oben revidierte Defizit- und Schuldenstatistiken. Georgiou wurde daraufhin angeklagt. Der Vorwurf lautete unter anderem, er habe Griechenland einen Schaden in Höhe von 171 Milliarden Euro zugefügt. Trotz zweier Freisprüche sind die Verfahren gegen ihn und andere Mitarbeiter von ELSTAT noch nicht abgeschlossen.
Ohne auf diesen Konflikt einzugehen hielt Georgiou ein flammendes Plädoyer dafür, dass Statistikbehörden professionell und institutionell unabhängig agieren können müssten. „Offizielle Statistik ist ein öffentliches Gut“, sagte er. Wie andere öffentliche Güter müssten statistische Daten eines Landes für jedermann zugänglich sein, auch ohne Bezahlung. Er forderte internationale Qualitätskriterien für Statistiken und eine internationale, unabhängige Behörde, die Regeln aufstellen und Prüfungen ausführen könne. Mangelhafte Statistiken eines Landes, so Georgiou, hätten nicht zuletzt Folgen auch für andere Länder, was sich aktuell beispielsweise in Auseinandersetzungen über internationale Finanzstabilität, Klimaschutz und militärische Sicherheit zeige.
Doch Statistiken müssen nicht nur korrekt erstellt, sondern auch richtig gelesen werden. Das war das Thema, mit dem der zweite prominente Gastredner den zweiten Konferenztag eröffnete. Prof. Dr. Gerd Gigerenzer ist ein international vielfach ausgezeichneter Forscher und Direktor des Harding-Zentrums für Risikokompetenz am Max-Planck-Institut für Bildungsforschung in Berlin sowie Gründer und Gesellschafter von „Simply Rational – Das Institut für Entscheidung“. Zusammen mit dem Bochumer Ökonomen Thomas Bauer und dem Dortmunder Statistiker Walter Krämer betreibt er seit 2012 die Webseite „Unstatistik des Monats“.
Dort praktiziert Gigerenzer, was er in seinem Vortrag dringend anmahnte: „Risikokompetenz muss gelehrt werden.“ In eigenen Studien, so Gigerenzer, habe sein Institut festgestellt, dass selbst ein Großteil der Ärzte medizinische Statistiken nicht verstehe und deshalb Risiken falsch einschätze. An Beispielen, wie sie auf der Internetseite zu finden sind, illustrierte er seine Aussage: „Statistisches Denken ist so wichtig wie Lesen und Schreiben.“ Sogar die Weltgesundheitsorganisation habe schon durch die Formulierung einer Meldung eine statistische Aussage zu dramatisieren versucht, beklagte Gigerenzer. Sie habe gemeldet: Wer täglich 50 Gramm Wurst esse, erhöhe damit sein Darmkrebsrisiko um 18 Prozent. Basis dieser Aussage war, dass, unabhängig von der Ernährung, statistisch betrachtet fünf von hundert Menschen in ihrem Leben Darmkrebs bekommen. Durch den Verzehr von 50 Gramm Wurst pro Tag erhöhe sich dieses Risiko von 5 auf 5,9 Prozent. So formuliert, klinge das wenig dramatisch. „Damit“, so vermutete Gigerenzer, „bekommen sie keine Aufmerksamkeit.“ Doch die Angabe des relativen Anstiegs – 5,9 ist 18 Prozent mehr als 5 – lasse die Warnung dringlicher erscheinen. Generell warnt Gigerenzer: „Relative Risiken machen Angst!“
Mehrfach plädierte der Forscher für bessere Aufklärung über statistische Begriffe und deren Bedeutung, möglichst schon in der Schule. Meldungen, die statistische Angaben missinterpretieren oder dazu verleiten, sind zahlreich. Zu Gigerenzers Aktivitäten gehört es, Manager, amerikanische Bundesrichter und deutsche Ärzte in der Kunst des Entscheidens und im Umgang mit Risiken und Unsicherheiten zu trainieren.
Mehrere weitere Vorträge der Tagung beschäftigten sich mit den Möglichkeiten und Folgen des Einsatzes von Künstlicher Intelligenz in der Wirtschaftsprüfung. Axel Zimmermann, Geschäftsführer der Audicon GmbH in Düsseldorf, schloss sich der Definition von Künstlicher Intelligenz an, die Amazon-Chef Jeff Bezoz geliefert hat: In den vergangenen Jahrzehnten hätten Computer im Wesentlichen Aufgaben automatisiert, die sich mit klaren Regeln und Algorithmen beschreiben ließen. Moderne Techniken des maschinellen Lernens, genannt Künstliche Intelligenz, erlaubten es nun, das selbe zu tun, wenn die Regeln nicht so ohne weiteres zu nennen seien. Für Zimmermann sagte: „Die Technologie wird viele Teile der klassischen Prüfung übernehmen.“ Das verändere die Tätigkeit des Prüfers „disruptiv“, das klassische Modell der Abschlussprüfung stehe „zur Disposition“. Seine eigene Firma fange mit dem Einsatz der KI „klein an“, etwa mit der Aufbereitung der Kundendaten, dem automatischen Erkennen von Risiken in diesen Daten und der schrittweisen Automatisierung des Prüfberichts.
Auch die diSCIS GmbH in Dreieich ist dabei, Künstliche Intelligenz einzusetzen. „Unter Digitalisierung verstehen wir die Automatisierung von Routinetätigkeiten der Fachkräfte“, sagte der Geschäftsführer Knut Fischer. Ziel sei, die „Kopfmonopole“ und das Fachwissen der (Bilanz)-Experten „in die Maschine zu transformieren“, damit den Mitarbeitern mehr Raum für das Querdenken und kreative Ideen geschaffen werden könne. diSCIS erwartet von der KI unter anderem, Informationen auch aus unstrukturierten Quellen wie etwa Fließtexten gewinnen zu können, Zusammenhänge zu erkennen oder automatisierte Entscheidungen zu treffen. Entscheidend für die Compliance sei, dass solche Entscheidungen stets transparent blieben. disSCIS plant einen Schritt, der im Publikum auf starkes Interesse stieß: Man wolle, so Fischer, das „Vier-Augen-Prinzip“ in der KI einführen. Das heißt: einem lernfähigen System, das eine Entscheidung fällen soll, wird aus Sicherheitsgründen ein zweites, das die gleiche Aufgabe hat, an die Seite gestellt. Wenn die beiden zu widersprechenden Ergebnissen kämen, so Fischer auf Nachfrage, sei der Mensch die letzte Instanz.
Ein KI-System dürfe nicht nur auf abstraktes Agieren festgelegt werden. Es müsse auch „konkret handeln und selbstständig agieren“, sagte Siegfried Köstlmeier, wissenschaftlicher Mitarbeiter am Lehrstuhl für Betriebswirtschaftslehre, insbesondere Finanzdienstleistungen, der Universität Regensburg. Für den Einsatz der KI für finanzwissenschaftliche Aufgaben stellte er einen Praxisleitfaden vor. Es gelte, häufige Fehler bei der Einführung von KI-Systemen zu vermeiden, etwa, dass die KI ohne klaren Mehrwert und mit blindem Vertrauen eingesetzt werde, dass vor dem Einsatz nicht alle benötigten Daten digitalisiert vorlägen und es an Transparenz, Flexibilität und Praxistauglichkeit fehle. Am Anfang müsse daher eine klare Geschäftsinitiative festgelegt und die an der Einführung beteiligten Personen identifiziert werden. Die KI solle auf die Zukunft, auf prognostische Analysen fokussiert werden, nicht auf den Rückblick, etwa das Controlling. Und natürlich müsse klargestellt werden, wieviel Entscheidung an das System abgegeben werden solle. Köstlmeier: „Es wird keine einzelne Anwendung für alles geben.“ Für die Implementierung eines KI-Systems veranschlagte er vier bis fünf Jahre.
Einen kritischen Blick auf den Einsatz der KI in der Wirtschaftsprüfung warf Prof. Dr. Ludwig Mochty, der an der Universität Duisburg-Essen einen Lehrstuhl für Wirtschaftsprüfung, Unternehmensrechnung und Controlling innehat. In der Branche der Wirtschaftsprüfer müsse sich noch vieles ändern, bevor die KI auf breiter Front eingesetzt werden könne. Bei der derzeitigen Praxis der analytischen Prüfung eines Abschlussberichts seien „alle Teilschritte stark von Ermessensentscheidungen geprägt.“ Das pflichtgemäße Ermessen des Prüfers spiele eine große Rolle. Dies werde jedoch derzeit zu wenig von der Erhebung der Fakten und ihrer Auswertung getrennt. Praxis sei eine „intransparente Vermischung von Ermessen und überschlägiger Rechnung“. Deshalb sei „der aktuelle Stand der Prüfungstechnik kein belastbares Fundament für die Einführung der Künstlichen Intelligenz“. Mochty hatte seinem Vortrag eine Bekundung des „hohen Respekts vor dem Beruf des Wirtschaftsprüfers“ vorausgeschickt. Doch sein Fazit war kritisch: „Die Prüfungspraxis hat aus meiner Sicht mit den Füßen abgestimmt: Keine Statistik!“ Und als Folge: „keine Künstliche Intelligenz“. Wolle man das ändern, sei eine Trennung zwischen Befund und Urteil notwendig. Eine weitere Voraussetzung sieht er in dem Aufbau einer empirischen betriebswirtschaftlichen Wissensbasis nach dem Vorbild der evidenzbasierten Medizin zur Objektivierung der prüferischen Erfahrungen.
Den Abschluss des 15. Deggendorfer Forums für digitale Datenanalyse machte ein Vortrag, in dem auch Krimifreunde auf ihre Kosten kamen. Stefan Rickert, Betriebsprüfer und Dozent für neue Prüfungstechniken am Finanzamt Wismar, stellte vor, wie er mit den Mitteln der Statistik der Manipulation von Zahlenreihen auf die Schliche kommt. Sein Ausgangspunkt war ein in Fachkreisen bekanntes reales Beispiel, der sogenannte (nicht vom ihm bearbeitete) Strichlistenfall. Der Inhaber eines kleinen Imbisses buchte seine Einnahmen nicht in einer Registrierkasse, sondern lieferte dem Finanzamt lediglich Listen der Tageseinnahmen. Diese Tagessummen manipulierte er nach unten, um weniger Steuern zahlen zu müssen. Er wusste jedoch, dass die Finanzbehörden gelegentlich prüfen, ob in den Zahlenreihen an erster Stelle links vom Komma alle Ziffern von null bis neun gleich häufig auftreten. Denn es ist bekannt, dass ein Mensch, der Zahlen erfindet, nicht alle Ziffern gleich häufig notiert. Deshalb hatte der Inhaber des Imbisses in einer Strichliste festgehalten, welche Ziffern er an erster Stelle vor dem Komma schon verwendet hatte. Beim Prüfer im Finanzamt sah die Verteilung in der Tat unauffällig aus. Doch von einem zweiten Prüfungsschritt wusste der Mann nichts: notiert man, mit welcher Wahrscheinlichkeit eine einzelne Ziffer, zum Beispiel die 8, direkt hinter einer anderen 8 auftaucht, oder nach zwei, drei, vier usw. weiteren Ziffern, so folgt auch diese Statistik der Abstände zwischen zwei gleichen Ziffern einer mathematischen Regel. Im Lichte dieser Prüfung sah die Einnahmenliste des Mannes verdächtig aus. Er gestand.
Rückert schilderte den Fall, um auf ein Grundproblem aufmerksam zu machen. „Die Finanzverwaltung hat in einem Rechtsstaat zweifellos ihre Prüfungsmethoden und Analysetechniken offenzulegen.“ Das müsse so sein. Der Steuerpflichtige wisse also, wie geprüft werde, und könne sich darauf einstellen. Es entwickle sich ein Wettlauf zwischen immer raffinierteren Formen der Manipulation und weiterentwickelten Prüfverfahren. Statistische Wahrscheinlichkeiten helfen der Finanzverwaltung dabei übrigens nicht. Geht so ein Wettlauf vor Gericht, muss das Finanzamt eindeutige Beweise liefern. Dass Zahlen mit hoher Wahrscheinlichkeit manipuliert sind, genügt Gerichten allein nicht.
Autor: Rainer Klüting