Archiv 2021

16. Deggendorfer Forum für digitale Datenanalyse

No Signal - verschwindet die Wahrheit in der Flut der Daten?

(Autor: Rainer Klüting)

Was bedeutet eigentlich das Wort „Wahrheit“ in einer Zeit, in der immer mehr Daten und immer mehr Kommunikationskanäle immer mehr Möglichkeiten bieten, praktisch jede Meinung irgendwie als Wahrheit zu vermitteln? Diese Frage hat sich das schon traditionelle „Deggendorfer Forum für digitale Datenanalyse“ (DFDDA) unter Leitung von Prof. Dr. Georg Herde (TH Deggendorf) gestellt. Auf der 16. Forumsveranstaltung am Mittwoch und Donnerstag diskutierten Experten aus Betriebsprüfung, Steuerberatung und Finanzwesen mit Schwerpunkt auf den Möglichkeiten und Grenzen der sogenannten Künstlichen Intelligenz (KI). Das Motto der wegen der Corona-Pandemie zum dritten Mal virtuellen Veranstaltung lautete: „No signal – verschwindet die Wahrheit in der Flut der Daten?“

Erst kürzlich habe die Hochschule Deggendorf ihre ersten Absolventen mit Spezialisierung auf Künstlicher Intelligenz entlassen, erzählte der Vizepräsident der TH, Prof. Dr. Horst Kunhardt, in einem Grußwort. Und er sprach eine Mahnung aus, der sich alle Redner der Tagung auf die eine oder andere Art anschlossen: „Wir dürfen nie den Menschen außer Acht lassen.“ Am Ende aller KI-Analysen werde weiterhin der kritische Verstand des Menschen gebraucht.

Von „Verantwortungsvoller Künstlicher Intelligenz“ sprach denn auch der Gastredner der Veranstaltung, Prof. Dr. Klaus Mainzer, emeritierter Ordinarius für Philosophie und Wissenschaftstheorie der TU München. Mainzer hat auf internationaler Ebene die Entwicklung der KI und der Erwartungen in die KI verfolgt und schilderte in seinem Vortrag den Weg über die Entwicklung von Expertensystemen, die durch rein logisches Schließen aus medizinischen Daten den Arzt bei der Diagnose unterstützen sollten, über die Nachahmung menschlicher Gehirnfunktionen und dem Suchen und Aufspüren von Mustern in großen Datenmengen bis heute unter anderem zu selbstlernenden Automaten in der Automobiltechnik und dem Entschlüsseln von Proteinstrukturen und damit dem Identifizieren von Viren.

Mainzer griff die Kritik daran auf, solche Systeme seien „black boxes“, man sehe, was sie herausfinden, nicht aber, auf welchem Wege sie es herausfinden. Die Systeme würden „wie ein Hund trainiert. Aber am Ende kann man doch gebissen werden.“ Mainzer: „Man braucht Sichtbarkeit, Erklärbarkeit.“ Das bedeute: Ein Experte – ein Arzt, ein Fachingenieur – müsse mit seinem „Domänenwissen“ entscheiden, ob zum Beispiel eine automatisch gefundene medizinische Diagnose plausibel ist oder nicht. Je mehr Einfluss die Technik auf den Menschen und seinen Alltag nehme, desto höher werde daher die Herausforderung an die Ausbildung der Menschen, die mit dieser Technik arbeiteten. Technikgestaltung sei gefordert; in diese Gestaltung müssten rechtliche, soziale, ökologische und ökonomische Kriterien von vorneherein einbezogen werden. Das machine learning (maschinelle Lernen) sei „heute ein gewaltiger Erfolg“, sagte Mainzer in der anschließenden Diskussion. „Doch am Ende ist es Statistik“ – mit den damit verbundenen Ungewissheiten.

Erfolge und Problematiken der Argumentation mit Statistik schilderte am Beispiel der Justiz Dr. Tanja Ihden, FH Krems, die ihre Doktorarbeit in Bremen über „die Relevanz statistischer Methoden in der Rechtsprechung“ geschrieben hat. Sie ist Mitglied der 2014/15 gegründeten Forschungsstelle „Statistik vor Gericht“. Die Zahl der Gerichtsurteile, in denen sich Begriffe der Statistik finden, ist laut Ihden in den vergangenen Jahrzehnten um ein Vielfaches gestiegen. Der Antrieb dazu komme aus der Justiz selbst, und zwar auf nahezu allen Gebieten, ob es um die Zuordnung einer DNA-Probe zu einem Verdächtigen sei, oder Rekonstruktionen eines Unfalls durch Szenarien, oder die Frage, ob ein Mann, auf dessen Computer Fotos aus dem noch nicht strafbedrohten Grenzbereich der Kinderpornografie gefunden werden, mit hoher Wahrscheinlichkeit auch verbotene Fotos besitzt. Richter seien immer häufiger mit Begriffen wie Varianz oder Konfidenzintervall konfrontiert, die sie in ihren Urteilen richtig einordnen können müsste, so Ihden. Statistiken lesen und statistische Argumentationen bewerten zu können, sei zu einer Schlüsselqualifikation für Richter geworden.

Wie riskant die Nutzung von sozialen Medien durch Mitarbeiter für ein Unternehmen sein kann, hat Tawei (David) Wang, PhD, Associate Professor and Driehaus Fellow, Driehaus College of Business DePaul University, Chicago, USA, praktisch vorgeführt. Seine Studie zeigt, wie sich anhand von Daten aus den sozialen Medien Sicherheitsschwächen in Computersystem von Firmen auffinden lassen. Wang und Kollegen nutzten für ihre Untersuchungen das Netzwerk LinkedIn, halten das Ergebnis aber für auf andere Netzwerke übertragbar. Sie extrahierten Tausende von Personendaten mit Angaben über gegenwärtige und frühere berufliche Tätigkeiten, Verantwortungsbereiche und Standorte und bildeten aus den Ergebnissen einen Risiko-Index (exposure index) für das Unternehmen. Herausgekommen sei eine positive Relation zwischen diesem Index und der Zahl der Datenpannen im Computernetz des Unternehmens.

Die Herausforderungen durch wachsende Rechenkapazitäten, neue Prozesse und neue Verfahren, etwa der KI, in den Unternehmen stellen auch neue und erweiterte Anforderungen an die Betriebsprüfung. Karsten Thomas, Partner IT-Assurance bei der BDO AG Wirtschaftsprüfungsgesellschaft, schilderte beispielhaft, wo neue, ständig weiterentwickelte Werkzeuge auch dem Prüfer helfen können, Effizienz und Qualität der Prüfung zu verbessern. Dabei sieht er keine grundsätzliche Konkurrenz zwischen den Zielen Qualität und Effizienz. Eine hohe Automatisierung verringere auch die Fehleranfälligkeit und könne den Prüfer entlasten. Auch könne das Erkennen von Auffälligkeiten erleichtert werden. Thomas stellte konkrete Werkzeuge aus der Prüferpraxis vor. Eine besondere Herausforderung seien Auffälligkeiten (Outlier) in analysierten Daten. Der Aufwand, sie zu klären und zu beurteilen, sei hoch. Die Hoffnung auf KI-Verfahren sei groß, doch sieht Thomas deren Einsatz an dieser Stelle noch nicht. Als einen Grund dafür nannte er, dass, je nach Unternehmen, nicht jede Auffälligkeit ein Fehler sein muss, und dass es in den Unternehmen mit ihrer jeweils individuellen Gestaltung von Datensystemen und Prozessen schwer sei, Trainingsdaten für maschinelles Lernen zu bekommen.

Eine spezielle Form von Massendatenanalyse für steuerliche Zwecke stellte Markus Ettinger vor, Diplom-Finanzwirt (FH) in der Groß- und Konzernbetriebsprüfung Schleswig-Holstein. Im Außensteuergesetz ist festgelegt, wie Verrechnungspreise zwischen einander nahestehenden Personen oder Unternehmen und ihren Subunternehmen für die Besteuerung daraufhin geprüft werden, ob sie den Marktrealitäten entsprechen. Es werden dazu die Verrechnungspreise zwischen vergleichbaren, voneinander unabhängigen Dritten hinzugezogen. Ettinger beschrieb, so der Titel seines Vortrags, „Visualisierung und Benchmarkstudien bei Verrechnungspreisen“. Dazu müssen zunächst vergleichbare Unternehmen und Kriterien für die Vergleichbarkeit gefunden werden. Ettinger beschrieb an Beispieldaten, wie sich mit der Kombination aus maschinellem Screening, idealerweise interaktiven Methoden der Visualisierung und kritischem Hinterfragen jedes Einzelschritts ein Vergleichsset zusammenstellen lässt, auf das sich die steuerliche Einstufung stützen kann, solange die Randbedingungen unverändert bleiben.

Zum Abschluss der Tagung stellte der DFDDA-Vorsitzende Prof. Dr. Georg Herde in einem eigenen Beitrag die Frage, die die verschiedenen Themen der Tagung überbrückte: „Künstliche Intelligenz – Eine Lösung für die Wirtschaftsprüfung?“ Er ging aus von der Feststellung: „Neue Techniken verleihen der KI starke Impulse.“ Doch was „versteht“ die KI, an Unternehmensdaten, wie sie dem Prüfer vorliegen? Welche Zusammenhänge erkennt sie von sich aus? Aus strukturierten Unternehmensdaten extrahiert der Prüfer eine Vielzahl von Tabellen – die allerdings auf definierte Weise zusammenwirken, was in den Tabellen automatisch nicht erkennbar ist. Und selbst in einer flachen Tabelle kann die Bedeutung der Einträge nur ein Mensch erkennen: Welcher Kontenrahmen wurde verwendet? Welche Art von Datum steht in dem Datumsfeld? Je nachdem, wo ein Buchungssatz steht, kann er falsch oder richtig oder gar sinnlos sein. Aus diesen und weiteren Überlegungen leitete er eine Perspektive für Entwickler ab: Die Eingabefelder müssen stark standardisiert sein, aber schon eine Zuordnung der Attribute zu den Datenfeldern kann keine KI leisten, sondern muss bei jedem Mandanten neu abgefragt und von Hand ausgeführt werden. „Es gibt keine automatische Prüfung einer Programmlogik“, sagte Herde mit – sinngemäßem – Bezug auf eine Erkenntnis des britischen Informatikers Alan Turing aus dem Jahr 1937. Zudem ändern sich Rahmenbedingungen wie Unternehmensstrukturen, Preise oder Gesetze ständig, so dass ein KI-System ständig neu trainiert werden müsste. „Diese und andere Probleme der KI-Systeme sind derzeit nicht lösbar“, stellte Herde fest. Forschung auf diesem Gebiet sei deshalb wichtig und sinnvoll.

Sein Schlusswort: „Wenn ein KI-System nicht sagt, wie es zu einem Ergebnis kommt, dann kann der Prüfer das Ergebnisse nur glauben. Dann prüft er nicht.“