Vorträge des DFDDA 2016

Dr. phil. Frank Wittig

Im Deutschen Gesundheitssystem haben die „Wissenschaftlichen Medizinischen Fachgesellschaften“ die Deutungshoheit in ihrer jeweiligen Fachdisziplin. Ob Gynäkologie, Orthopädie oder Zahnmedizin: stets ist es eine Gruppe von „herausragenden“ Vertretern dieser medizinischen Disziplin, die entscheidet, welche medizinischen Grenzwerte als handlungsrelevant und welche Pharmazeutika oder welche Medizinprodukte als „fachgerecht“ gelten. Das Problem: die „herausragenden“ Fachvertreter beanspruchen Leitlinienkompetenz auf der Ebene der Fachgremien, die sie gleichzeitig in der Praxis in eine medizinische Diagnostik und damit in eine (für sie) ökonomisch relevante Behandlung umsetzen. Interessenkonflikte sind vorprogrammiert. Zumal die „herausragenden“ Fachvertreter in der Regel engste Verbindungen zur entsprechenden Industrie pflegen. Eine Industrie, für die Intransparenz und Datenmanipulation zum Geschäftsmodell gehören.    

Jochen Thierer / Marie-Luise Wagener

Schnell und stetig anwachsende Volumina strukturierter und unstrukturierter Daten aus unterschiedlichsten Quellen erschweren es den Verantwortlichen für Compliance eines Unternehmens zunehmend, ihrer Aufgabe gerecht zu werden. Doch ‚Big Data‘ stellt auch eine Chance für Unternehmen dar, neue Erkenntnisse zu gewinnen und – im Fall des Compliance Verantwortlichen – die ‚Nadel im Heuhaufen‘ zu finden um so Schaden abzuwenden.

Dies wird anhand von zwei Anwendungsfällen illustriert:

  1. Weltweit steigen Anzahl und Komplexität von Betrugsfällen in öffentlichen und privaten Unternehmen. Die Kosten hierfür bewegen sich jährlich im dreistelligen Milliardenbereich. Mit Hilfe geeigneter Software-Lösungen können digitale Datenressourcen aus unterschiedlichsten operativen Systemen herangezogen und analysiert werden um in Echtzeit Anomalien in Prozessen und mögliche Betrugsfälle zu entdecken und zu verhindern. Durch den Einsatz von prediktiven Algorithmen werden darüber hinaus zukünftige Risiken identifiziert.
  2. Insbesondere in der EU und in den USA erwartet der Gesetzgeber, dass Unternehmen ihre Geschäftspartner ‚kennen‘, d.h. Kunden, Lieferanten und Partner sind zu prüfen, ob sie auf sogenannten ‚Boykottlisten‘ verzeichnet sind. Angesichts neuer Geschäftsmodelle wie Business Networks und Digital Commerce auf der einen sowie mehreren Millionen Einträgen in diversen Boykottlisten auf der anderen Seite sind automatisierte, massendatenfähige Prozesse unumgänglich, um den gesetzlichen Anforderungen effizient und flexibel zu genügen.

Christoph Haas

Die Berichterstattung in den letzten Monaten zeigte deutlich, wie es um die Sicherheit in Netzwerken von allen Arten von Organisationen bestellt war: Nahezu täglich gab es neue Meldungen über angegriffene Netzwerke, gestohlene Daten oder sogar gezielte Sabotageakte.

Heutige Standardlösungen aus dem Bereich IT-Sicherheit wie Virenscanner kommen gegen die Bedrohungen kaum an. Vor gezielten Angriffen mit spezialisierter Schadsoftware sind diese nahezu machtlos. Eine Möglichkeit sich diesem Problem zu nähern ist das Network Security Monitoring (NSM). Dabei werden Aktivitäten im Netzwerk auf bösartiges Verhalten untersucht.

Um NSM in der Praxis umzusetzen, gibt es mehrere Verfahren, die zum Einsatz kommen können. Im Folgenden werden zwei vorgestellt: Zum einen die Analyse der Meta-Daten der Verbindungen, um Muster zu erkennen, die auf Angriffe hindeuten. Zum anderen die tiefgehende Analyse der Inhalte von Paketen durch Deep Packet Inspection.

Allerdings gibt es dabei einige Herausforderungen zu bewältigen. Die Bandbreiten der Netzwerke werden stetig ausgebaut. Die dadurch gestiegenen Datenmengen zu analysieren wird deswegen immer schwieriger. Außerdem muss der Datenschutz gewahrt und die Privatsphäre der Nutzer geschützt werden. Fortschritte in Verschlüsselungstechnologien werden natürlich auch von Angreifern verwendet, was deren Aktivitäten zusätzlich verschleiert.

Wie ein funktionierendes, aber auch wirtschaftliches Schutzkonzept im Jahre 2016 aussehen kann, wird abschließend dargestellt. Dieses orientiert sich vor allem daran Angriffe frühzeitig zu erkennen und entsprechende Gegenmaßnahmen einzuleiten.

WP Remo Rechkemmer

Die sich stetig beschleunigende Digitalisierung der Wirtschaft wird auch die Wirtschaftsprüfung nachhaltig transformieren. Neben den Herausforderungen im Umgang mit zunehmend komplexen Unternehmenssystemen und -daten ergibt sich durch die digitale Datenanalyse auch ein Potential für wirtschaftlichere, schnellere und aussagekräftigere Abschlussprüfungen. So kann der traditionelle Prüfungsansatz, welcher insbesondere auf der manuellen Prüfung des internen Kontrollsystems von Unternehmen, bewussten und zufallsgesteuerten Stichproben sowie auf einfachen Hauptbuch-Datenanalysen basiert, perspektivisch in eine kontinuierliche und effiziente Prüfung des internen Kontrollsystems und der laufenden Geschäftsvorfälle von Unternehmen übergehen.

Im Vortrag werden neben diesen Chancen auch die Herausforderungen aus der Digitalisierung der Wirtschaftsprüfung untersucht. Hierzu gehören Sicherheit und Vertraulichkeit von Unternehmensdaten bei der Selektion und Verarbeitung durch den Abschlussprüfer, insbesondere vor dem Hintergrund der wachsenden strategischen Bedeutung von Daten und der Transparenz von Unternehmen. An die Darstellung des weiterentwickelten Prüfungsansatzes auf Basis von digitalen Datenanalysen schließt eine Analyse der Abhängigkeit von Transparenz und Objektivität der Abschlussprüfung von der Standardisierung der neuen Analyseverfahren und Datenschnittstellen. Abschließend werden die potentiellen Auswirkungen auf das Berufsbild des Wirtschaftsprüfers sowie auf die Erwartungslücke zwischen Öffentlichkeit, Staat und Abschlussprüfer diskutiert.

Prof. Dr. Siegfried Handschuh

Der Vortrag beschäftigt sich mit dem Thema der Semantik. Dabei geht es um die Frage der Wortbedeutung und welche Ansätze es in der Informatik gibt, Semantik computerbasiert zu repräsentieren.

Auf diesen Ansätzen basiert die dann dargestellte Grundlagenforschung im Bereich der computerbasierten Linguistik und der Wissensrepräsentation.

Daraus lassen sich innovative Informationssysteme ableiten, die erhebliche Mehrwerte bei Big-Text-Data und der digitalen Datenanalyse bieten.

Im Vortrag werden exemplarisch ein intelligentes Information Retrieval System und ein Question-Answering System dargestellt. Das Information Retrieval System erlaubt eine effiziente Suche, Retrieval und das Stöbern nach Wissen, welches sich versteckt und weit verstreut in sehr großen Publikationsbeständen befindet.

Das Question-Answering System ist ein wissensbasiertes System, das menschlichen Benutzern Auskunft auf in natürlicher Sprache gestellte Fragen erteilt.

Uwe Nadler

Menge, Herkunft und Form der für Analysen zur Verfügung stehenden Daten nehmen mit atemberaubender Geschwindigkeit zu! Welche Auswirkungen hat das auf Qualität und Verlässlichkeit von Daten und den darauf basierenden Analyseergebnisse? Welche Auswirkungen hat diese Datenvielfalt auf die Sicherheit und auf Nutzungsbeschränkungen der Daten? Wie kann man nachvollziehen, wie entscheidungsrelevante Analyseergebnisse überhaupt zustande gekommen sind? Wie können die Anforderungen von Aufsichtsbehörden an Datenqualität und Nachvollziehbarkeit sichergestellt werden?

Dieser Vortrag beschäftigt sich mit der Rolle der Information Governance Disziplinen bei der Schaffung von Transparenz und Verlässlichkeit von Analyseergebnissen. Dabei wird die funktionale Ausprägung von Information Governance Technologien für moderne „Data Lake“ Architekturen anhand von Praxisbeispielen erläutert.

Dr. Ralf Steinberger

All information-seeking professionals need to sieve through large amounts of text to retrieve the information they need so that they can stay up-to-date of developments in their field. Language Technology tools can help make the analyst’s work more efficient by increasing the amount of data analysed and by speeding up the process. Software tools applied to big data may additionally provide a bird’s view of trends and data distributions not easily visible to the human reader.

The European Commission’s Joint Research Centre (JRC) has developed the Europe Media Monitor (EMM) family of applications, which aims to provide solutions for the daily media monitoring needs of a large variety of users working in diverse fields. The users include EU institutions, national authorities of EU Member States, international organisations outside the EU, and more. Individuals have free access to EMM through the publicly accessible EMM applications and through apps for mobile devices. EMM gathers a daily average of 220,000 online news articles in about 70 languages, classifies them into thousands of categories, groups related articles, links related news over time and across languages, extracts and disambiguates mentions of entities (persons, organisations and locations), detects spelling variants, recognises direct speech quotations, fills specific event scenario templates, and more. Due to the large scale of the effort, EMM can track topics, detect trends and act as an early warning tool. The moderation software NewsDesk allows human analysts to produce readily formatted in-house newsletters with little effort. See http://emm.newsbrief.eu/overview.html for more details on EMM.

The speaker will present the functionality of EMM, give concrete examples of news content complementarity across languages (national bias) and highlight both the benefits and the potential dangers of automated large-scale media monitoring.