Ziel der Elementarteilchenphysik ist es, ein besseres und grundlegenderes Verständnis der elementarsten Bausteine unserer Welt sowie über Entstehung und Entwicklung unseres Universums zu erlangen.
Die dazu notwendigen Experimente des Large Hadron Colliders am CERN setzen dabei nicht nur bei Größe und Komplexität neue Maßstäbe sondern stellen auch in Sachen Datenverarbeitung und -analyse eine Herausforderung neuen Ausmaßes dar.
In Bruchteilen einer Sekunde muss aus Abermillionen von Daten ein verschwindend geringer Anteil an relevanten Ereignissen ausgewählt werden und für die Suche nach Neuer Physik müssen Petabytes von jährlich gewonnenen Daten durchforstet werden.
In diesem Vortrag werden die Experimente und Infrastrukturen eingeführt, die dabei entstehenden Daten charakterisiert und Methoden der Datenanalyse vorgestellt.