Mit allem rechnen
17.12.2018
Großexperimente in der Grundlagenforschung erfordern immer mehr Rechen- und Speicherressourcen. In einem neuen Verbundprojekt wollen Physiker jetzt innovative computergestützte Verarbeitungsmethoden entwickeln.
17.12.2018
Großexperimente in der Grundlagenforschung erfordern immer mehr Rechen- und Speicherressourcen. In einem neuen Verbundprojekt wollen Physiker jetzt innovative computergestützte Verarbeitungsmethoden entwickeln.
Welche sind die fundamentalen Bausteine der Natur? Wie ist das Universum entstanden und wie hat es sich entwickelt? Diesen grundlegenden Fragen gehen Wissenschaftler mit sehr unterschiedlichen Methoden nach. Am Large Hadron Collider (LHC) am CERN und beim Belle II-Experiment in Japan etwa suchen sie nach neuen elementaren Teilchen in Proton-Proton- beziehungsweise Elektron-Positron-Kollisionen. Am FAIR-Beschleuniger (Facility for Antiproton and Ion Research) wollen die Forscher in wenigen Jahren komprimierte Neutronenstern-Materie im Labor herstellen, die Quelle der schweren Elemente im Kosmos. Am Pierre-Auger-Observatorium in Argentinien erlangen die Wissenschaftler durch den Nachweis hochenergetischer kosmischer Strahlung Erkenntnisse über astrophysikalische und kosmologische Prozesse.
50 Millionen Gigabytes an Daten jährlich allein am CERN
Trotz unterschiedlicher Methoden und wissenschaftlicher Fragestellungen verbindet die Forscher eine Herausforderung. Die zunehmend höhere Auflösung der Messinstrumente und die Leistungssteigerung der Beschleuniger versprechen zwar neue wissenschaftliche Erkenntnisse, allerdings steigen damit auch die Datenmengen rasant an. Schon jetzt fallen beispielsweise bei den Experimenten am CERN etwa 50 Petabyte Daten jährlich an. Das sind rund 50 Millionen Gigabytes – eine kaum vorstellbare Datenmenge. Gespeichert würden sie auf insgesamt zehn Millionen DVDs Platz finden, gestapelt ergäben die DVDs eine Höhe von 13 Kilometern. Damit aber nicht genug. „In den kommenden zehn Jahren erwarten wir aufgrund der Weiterentwicklungen von Detektoren und Beschleunigern eine Zunahme der Datenmengen um den Faktor 50“, resümiert Professor Thomas Kuhr, der die Experimental Flavor Physics Group an der LMU leitet.
Neue Entwicklungen in der Speicher- und Prozessortechnologie können dieses Wachstum an Speicherbedarf bei Weitem nicht ausgleichen. Um auch weiterhin Forschungsdaten analysieren zu können, braucht es daher künftig komplett neue Rechenkonzepte. Um diese zu entwickeln, haben sich Wissenschaftler aus der Teilchenphysik, der Hadronen- und Kernphysik sowie der Astroteilchenphysik jetzt zu einem experiment- und fachübergreifenden Verbund zusammengeschlossen..
Verbund bündelt Kernkompetenzen
Das Bundesministerium für Bildung und Forschung (BMBF) fördert im Kontext des Rahmenprogramms „Erforschung von Universum und Materie – ErUM“ diesen Verbund mit dem Namen „Innovative Digitale Technologien für die Erforschung von Universum und Materie“ als Pilotprojekt mit insgesamt 3,6 Millionen Euro über die nächsten drei Jahre Die beteiligten Forscher und Forscherinnen bringen vielfältige Erfahrungen und Kenntnisse auf den Gebieten von verteilten Rechnerinfrastrukturen und Algorithmen-Entwicklung in das Projekt ein. Beteiligt sind Teams der Universitäten Aachen, Erlangen-Nürnberg, Frankfurt am Main, Freiburg, Hamburg, Mainz, München, Wuppertal und des Karlsruher Instituts für Technologie sowie der assoziierten Partner DESY (Deutsches Elektronen-Synchrotron), CERN, Forschungszentrum Jülich, Grid Computing Centre Karlsruhe (GridKa), GSI Helmholtzzentrum für Schwerionenforschung und der Universitäten Bonn, Göttingen und Münster. Die Verbundkoordination übernimmt LMU-Forscher Kuhr.
Innerhalb der nächsten drei Jahre entwickelt und testet der Verbund neue Computing-Systeme. Ein vielversprechender Ansatz ist dabei der Einsatz von Virtualisierungs-Technologien, um bisher unzugängliche Ressourcen zu erschließen. Auch an die Nutzung von neuen Prozessor-Architekturen, die zum Beispiel in Grafikkarten eingesetzt werden und eine bessere Energieeffizienz versprechen (Green IT), denken die Wissenschaftler. Eine wichtige Säule sehen die Forscher in der Entwicklung verbesserter Algorithmen und dem Einsatz von künstlicher Intelligenz (KI) für Big-Data-Analysen. Dabei sollen innovative Methoden des „maschinellen Lernens“ eine wichtige Rolle spielen.
Alle Wissenschaftsbereiche stehen vor der digitalen Herausforderung
„Die riesigen Datenmengen sind für uns eine große Herausforderung. Innovative digitale Methoden sind künftig unabdingbar, um die Grundlagenforschung entscheidend voranzubringen“, sagt Verbundkoordinator Thomas Kuhr. Aber nicht nur die physikalische Forschung steht vor der digitalen Herausforderung. „Auch andere Wissenschaftsbereiche benötigen über kurz oder lang leistungsstarke Rechenumgebungen und werden von den neuen Kompetenzen profitieren.“ Das Verbundprojekt bietet den beteiligten Nachwuchswissenschaftlerinnen und -wissenschaftlern eine hervorragende Gelegenheit, sich ein umfassendes Wissen in neuen Computing-Technologien anzueignen. Damit sind sie bestens darauf vorbereitet, führende Positionen in Wissenschaft oder Wirtschaft zu besetzen, um den digitalen Wandel voranzutreiben.
Neben der Koordination übernimmt die LMU im Verbund die Aufgabe, Simulationsrechnungen, zunächst am Beispiel des Belle II-Experiments, durch den Einsatz tiefer neuronaler Netze deutlich zu beschleunigen. Außerdem entwickeln LMU-Wissenschaftler neue Methoden zum effizienten Zugriff auf riesige Datenmengen über große Entfernungen. „Nur wenn einfach und schnell auf entfernte Daten zugegriffen werden kann, lassen sich bisher ungenutzte Ressourcen für alle Experimente erschließen“, meint der am ATLAS-Experiment beteiligte LMU-Wissenschaftler Dr. Günter Duckeck.