Verstehen, wie Maschinen lernen
30.03.2021
Gitta Kutyniok untersucht, wie künstliche Intelligenz zu ihren Entscheidungen kommt.
30.03.2021
Gitta Kutyniok untersucht, wie künstliche Intelligenz zu ihren Entscheidungen kommt.
Künstliche Intelligenz – daran knüpfen sich seit Jahrzehnten Fortschrittshoffnungen. Es gab Wellen der Euphorie, doch regelmäßig folgte auf eine Blütezeit der nächste KI-Winter. Die Erwartungen waren zu groß, als dass die Forschung sie hätte erfüllen können. Seit ein paar Jahren ist die Sache anders. Der Durchbruch kam mit sogenannten tiefen neuronalen Netzen. Solche Deep-Learning-Verfahren sind heute die gängige KI-Technologie. Und nicht zuletzt die rasant wachsenden Rechnerleistungen machen riesige Datensätze verfügbar, mit denen sich die selbstlernenden Systeme trainieren lassen. Warum dieses Deep Learning aber so effektiv ist, lässt sich noch nicht vollständig erklären. Gitta Kutyniok spricht gar von einem „Mysterium“ – nicht unbedingt eine gebräuchliche Kategorie für eine Mathematikerin.
Gitta Kutyniok ist Inhaberin des Lehrstuhls für Mathematische Grundlagen der Künstlichen Intelligenz an der LMU, der zu den aus der Hightech Agenda des Freistaats finanzierten KI-Professuren gehört. In ihren Arbeiten geht die Forscherin genau solchen Fragen nach: Wenn Systeme aus vielen Trainingsbeispielen selbsttätig lernen, Entscheidungen zu treffen, wenn sie Erfahrungen machen, systematisieren und daraus Regeln ableiten, will man wissen, wie sie zu diesen Entscheidungen kommen. Gitta Kutyniok will herausfinden, welches die Hauptkriterien dafür sind. Und umgekehrt: Welche sind die wichtigsten Komponenten dafür, dass die künstlichen neuronalen Netze und die daraus abgeleiteten Algorithmen zu den „richtigen“ Entscheidungen kommen, und wie das Lernfutter für die Maschinen aussehen muss. Die Mathematikerin untersucht auch, welche Leitlinien man einziehen muss und wie „das optimale Setup“ für ein neuronales Netz aussieht. Und wie – Stichwort Explainable AI – letztlich in der Praxis nachvollziehbar bleiben kann, was selbstlernende Maschinen machen.
Diese letzte Frage wird immer wichtiger, denn schließlich gibt es eine ganze Reihe von potenziellen Anwendungen in äußerst sensiblen Bereichen, etwa bei rechnergestützter medizinischer Diagnostik und Therapie. „Man versteht noch nicht ausreichend“, sagt Gitta Kutyniok, „wie gut nun neuronale Netze tatsächlich funktionieren. Man hat zum Beispiel keine Fehlerabschätzung dafür.“ Oft geschehe es in Experimenten, dass leichte Variationen im Setup plötzlich zu krassen Fehlentscheidungen des Systems führen. Darum formuliert Gitta Kutyniok ihr Forschungsziel so: „Ich möchte neuronale Netze sicherer, robuster machen.“
Auch an KI-Anwendungen arbeitet Gitta Kutyniok, vor allem in der medizinischen Bildverarbeitung, einem Gebiet, in dem sie lange Erfahrungen sammelte, bevor sie sich der Erforschung neuronaler Netze zuwandte. So lasse sich beispielsweise, fand sie heraus, bei der Magnetresonanztomographie (MRT) mit dem Einsatz klassischer modell-basierter Methoden wie der komprimierten Erfassung der Daten (Compressed Sensing) in Kombination mit den von ihr entwickelten Shearlets die Datenakquise beschleunigen, „damit die Patienten nicht so lange in der Röhre stecken“. Shearlets sind spezielle Funktionensysteme, die eine besonders effiziente Darstellung von Bildern ermöglichen. Lernmethoden wie neuronale Netze seien gut darin, bestimmte Muster in den Originaldaten zu erfassen. „Um es dagegen mathematisch exakt zu modellieren, ist das Innere eines Menschen fast zu komplex.“ Gitta Kutyniok verfolgt darum die Strategie, beide Zugänge, die physikalischen Modellierungen und KI-Verfahren, zu verbinden und so „das Beste aus beiden Welten zu verheiraten“, wie sie sagt.
Ich habe hier ein hervorragendes Forschungsumfeld, viele Topwissenschaftler sind in München. Das bietet viele Möglichkeiten zur Kooperation.Prof. Dr. Gitta Kutyniok, Lehrstuhl für Mathematische Grundlagen der Künstlichen Intelligenz
Gitta Kutyniok hat Mathematik und Informatik studiert und beide Fächer mit einem Diplom abgeschlossen. Sie war nach ihrer Habilitation mit einem Heisenberg-Stipendium der Deutschen Forschungsgemeinschaft an US-amerikanischen Elite-Universitäten: in Princeton, Stanford und Yale. An der Technischen Universität Berlin hatte sie schließlich eine Einstein-Professur für Mathematik. Seit Oktober 2020 ist sie in München.
„Ich habe hier ein hervorragendes Forschungsumfeld, viele Topwissenschaftler sind in München, das bietet viele Möglichkeiten zur Kooperation, an der LMU und mehr noch, wenn man die Technische Universität dazunimmt“, sagt Kutyniok. Und was den Zuschnitt ihres eigenen Forschungfeldes angeht, decke der sich ziemlich passgenau mit den Strukturen, wie sie sie an der LMU vorfindet. „Die Fakultät vereint die Mathematik, die Informatik und die Statistik. An den meisten anderen Universitäten sind die Disziplinen stärker verteilt.“
Vor Kurzem hat die Mathematikerin ein von der Deutschen Forschungsgemeinschaft finanziertes Schwerpunktprogramm zu den Theoretischen Grundlagen des Deep Learning eingeworben, das ebenfalls Mathematiker, Informatiker und Statistiker vereinen soll. Wie bei diesem Förderformat üblich, können sich Forscher aus ganz Deutschland mit Projektideen dafür bewerben, derzeit laufen die Auswahlprozesse. „Das soll nicht nur die Forschung zu Deep Learning bündeln, sondern auch zu einer Art Community Building in diesem Gebiet beitragen.“
Auch dafür dürfte München der richtige Stützpunkt sein, argumentiert Gitta Kutyniok. Schließlich gebe es in Bayern die KI-Initiativen des Freistaats im Rahmen seiner Hightech Agenda, die die Aufholjagd der deutschen Forschung finanziell und strukturell unterfütterten: „Hier entsteht eine Dynamik, die deutschlandweit, ja weltweit ihresgleichen sucht.“